Los principios fundamentales de la contratación automatizada aplicables para el uso de los sistemas de automatización en la contratación de seguros
The fundamental principles of automated contracting applicable to the use of automated systems in insurance contracts
Marta García Mandaloniz1
1 Profesora Titular de Derecho Mercantil acreditada como Catedrática en la Universidad Carlos III de Madrid. (España). La autora desea poner de relieve que esta investigación se cierra a 28 de febrero de 2025. Basa una parte inicial de sus planteamientos y argumentaciones en el primer epígrafe redactado por ella en la siguiente publicación: Marta García Mandaloniz, Fernando Javier Ravelo Guillén, "El uso responsable y ético de los sistemas de automatización y de inteligencia artificial en el sector asegurador", en Tratado de Derecho Digital, Dir. por Javier W. Ibáñez Jiménez (Madrid: Reus, 2025), pp. 939-1.009 (en prensa). La autora desea agradecer los comentarios recibidos de un evaluador anónimo (en evaluación por pares) para la mejora de la versión original del presente escrito. Correo e: mandalon@der-pr.uc3m.es. ORCID Id: https://orcid.org/0000-0003-0334-037X
Fecha de recepción: 4 de febrero de 2025 Fecha de aceptación: 30 de mayo de 2025 Received: February 4, 2025 Accepted: May 30, 2025
DOI: https://doi.org/10.18601/16923960.v24n2.04
RESUMEN
La automatización está siendo capaz de generar en la industria aseguradora, como en tantas otras industrias, un impacto positivo en términos de agilización y simplificación de tareas y procesos. Como tecnología rompedora, puede emplearse en el análisis y el procesamiento de los datos, en la suscripción de las pólizas de seguros, en la evaluación y la predicción de los riesgos, la detección de los fraudes o la tramitación de las quejas y reclamaciones. También sirve, en la fase precontractual, para la atención y la consulta, el asesoramiento o la recomendación a los usuarios de seguros. Genera expectación la automatización por la mejora en la eficiencia corporativa y la reducción de los costes. Genera también preocupación por los posibles riesgos en forma de fallos o sesgos. Ante la preocupación se alza la regulación. Un marco regulatorio ha generado la Comisión de Naciones Unidas sobre el Derecho Mercantil Internacional (CNUDMI) a través de la Ley Modelo sobre Contratación Automatizada. Sus disposiciones y principios fundamentales pueden servir de guía tanto al intérprete jurídico como a los operadores que hagan uso de los sistemas automatizados para su actividad comercial, así como también en el sector de seguros.
Palabras clave: Sistemas de automatización, Industria aseguradora, Roboasesores, Agentes Robóticos conversacionales, Contratación automatizada.
ABSTRACT
Automation is being able to generate in the insurance industry, as in so many other industries, a positive impact in terms of streamlining and simplifying tasks and processes. As a groundbreaking technology, it can be used in data analysis and processing, insurance policy underwriting, risk assessment and prediction, fraud detection and claim processing, as well as in customer service and consultation, advice and recommendations to insurance users. Automation generates expectations, because of the improvement in corporate efficiency and cost reduction. It also generates concern because of possible risks in the form of failures or biases. In the face of concern, regulation is rising. A regulatory framework has been generated by the United Nations Commission on International Trade Law (UNCITRAL) through the "Model Law on Automated Contracting". These provisions, along with their "fundamental principles", can guide both legal practitioners and commercial operators who make use of automated systems for their commercial activity, also in the insurance sector.
Keywords: Automation Systems, Insurance Industry, Robo-Advisors, Chatbots, Automated Contracts.
SUMARIO
Introducción. 1. Algunas ventajas derivadas del uso de los sistemas de automatización en el sector asegurador. 2. El uso de los sistemas de automatización para la atención, el asesoramiento o la recomendación de seguros. 2.1. El uso de los "asesores robóticos" para el asesoramiento o la recomendación de seguros". 2.2. El uso de los "robots conversacionales" para la atención y conversación sobre los contratos de seguros". 3. Algunos riesgos derivados del uso de los sistemas de automatización en la contratación de seguros. 3.1. Riesgos para la "transparencia algorítmica". 3.2. Riesgos de "colusión algorítmica". 3.3. Riesgos de "discriminación algorítmica". 4. Ante los riesgos, las cuestiones jurídicas. 5. Ante las cuestiones jurídicas, los principios fundamentales de la contratación automatizada. 5.1. Con "neutralidad tecnológica". 5.2. Sin "discriminación tecnológica". 5.3. Sin "equivalencia funcional". 5.4. Con "autonomía de la voluntad". 5.5. Con información y sin anulación. Conclusión. Bibliografía.
INTRODUCCIÓN
El mercado hace tiempo que no desconoce la interconexión del sector de seguros con la digitalización2. En esa interacción tanto el diseño y los canales de la comunicación como el proceso de la comercialización y la distribución de los seguros se han venido alterando y multiplicando. Se han abierto a las redes desintermediadas (Peer-to-Peer o P2P). Se han conectado al "Internet de las cosas" (Internet of things o IoT) y, en un mayor avance, al "Internet de todas las cosas" (Internet of everything o IoE), con wearables aplicables en los sectores de vida, salud o automóvil que facilitan -junto al big data y los algoritmos- una tarificación individual, dinámica y adaptada a cada cliente. Se han automatizado, en una automatización capaz de alcanzar a una amplia variedad de procesos organizativos internos, para optimizarlos.
La automatización puede alcanzar al proceso de la venta y la distribución de los seguros; a la comunicación, la atención y el asesoramiento a la clientela; a la gestión de las pólizas, en cuanto a su emisión y actualización; a la gestión y resolución de los siniestros o a las reclamaciones en caso de siniestros, a la detección del fraude, o a las actividades de supervisión y cumplimiento normativo. La automatización (no solo) de las tareas repetitivas y rutinarias (antes manuales) y de los procesos (antes personales) ofrece ágiles soluciones tecnológicas a las necesidades cambiantes de las compañías y los usuarios de los seguros.
En la automatización o, cada vez más, la hiperautomatización del sector asegurador las técnicas y herramientas tecnológicas divergen. Se emplea la automatización robótica de procesos o tecnología RPA (Robotic Process Automation), incluyendo el reconocimiento óptico de los caracteres (OCR)3. Se emplean también sistemas complejos que hacen uso de los algoritmos avanzados y del procesamiento de los macrodatos a través de las estrategias del aprendizaje automático o machine learning (ML) -como la del aprendizaje por refuerzo (RL)- y con métodos variados como el aprendizaje profundo o deep learning (DL). Los sistemas de automatización -que, cada vez en más casos, integran sistemas de inteligencia artificial (IA), como son el aprendizaje automático o el razonamiento basado en reglas- sirven como catalizador del impulso digital de la industria aseguradora4. La digitalización automatizada está y estará presente. El sector de seguros, como tantos otros sectores, ha comprado un billete de ida a la automatización, sin posibilidad de reventa ni de compra de un billete de regreso5.
Los cambios que introducen los sistemas de automatización, cada vez más utilizados en el sector asegurador, serán examinados en este trabajo de investigación. Ante el cambiante y rompedor panorama digital asegurador, se analizará el papel que la regulación desempeña para favorecer y fortalecer las utilidades de los sistemas de automatización, debiendo enfrentar y limitar los riesgos. Los principios fundamentales de la contratación automatizada serán la base sobre la cual interpretar la regulación.
1. ALGUNAS VENTAJAS DERIVADAS DEL USO DE LOS SISTEMAS DE AUTOMATIZACIÓN EN EL SECTOR ASEGURADOR
Con la automatización cambia la atención y la relación con inmediatez y focalización a un cliente hiperconectado. El enfoque centrado en el cliente o "cliente-centrismo" se agranda gracias a la implantación de las soluciones digitales que facilitan la operativa y la contratación de los seguros. La centralización en la clientela es para su captación y fidelización. Con estos propósitos se (re)definen nuevos productos y procesos, nuevos canales de venta y nuevos o renovados modelos de negocio6 y de contratación para unas ¿mejores? relaciones y unos prontos resultados.
La (re)focalización y la (re)definición implican (re)invención. La (re) invención es debida al creciente desembarco de soluciones basadas en la tecnología, en general, y en la automatización, en particular. Las soluciones tecnológicas automatizadas facilitan la operativa y la contratación en una economía sin contacto. Las actividades económicas y los procesos contractuales se ven abocados a adaptar sus patrones de funcionamiento a la "economía contactless". La economía sin contacto se basa en la digitalización del proceso contractual. Con la ayuda de los medios tecnológicos, las alternativas contactless pueden llegar a cualquier punto del recorrido del proceso contractual7, esto es, a la atención y la información en la fase previa a la contratación, a la gestión y la ejecución de la contratación o a los servicios postcontratación. El proceso precontractual, contractual y postcontractual se despersonaliza y se desempapela. En una economía sin contacto, la técnica de la automatización permite desenvolver el ciclo completo del proceso de contratación sin necesidad de la intervención de la persona física o, en su caso, con una mínima intervención personal.
La atención, la asistencia, el asesoramiento y la recomendación al cliente pueden, en efecto, automatizarse. De la comunicación y el asesoramiento humanos (a distancia o presencial) se avanza a la comunicación y el asesoramiento automatizados (siempre a distancia). Para la comunicación y el asesoramiento y, en su caso, la recomendación puede hacerse uso de las herramientas tecnológicas basadas en una gran masa de datos digitalizados y de algoritmos cada vez más complejos, en un avance imparable de los sistemas de inteligencia artificial. Pero los sistemas de automatización (inteligentes o no) no solo pueden alcanzar a la interacción con la clientela para su información y atención. Gozan, además, del potencial de expansión a otros muchos procesos, como la suscripción y la firma de la póliza, la fijación del precio, el procesamiento de las quejas y las reclamaciones e incidencias, la gestión de los riesgos o la detección del fraude; insistimos.
En definitiva, nos encontramos en un estadio de actualización y transformación digital constante tanto del negocio de la industria de los seguros8 como del proceso de contratación de los seguros9.
Con la automatización se ahorra en tiempos y costes para las aseguradoras y los consumidores de seguros10. La rentabilidad asociada a la automatización, por la reducción de los costos operativos de las entidades aseguradoras, puede llegar a derivar (no siempre) en un seguro más asequible para la clientela por menores comisiones, tarifas y primas aplicadas. A la asequibilidad se suma la accesibilidad. Hay un fácil y rápido acceso a las plataformas en línea sin la limitación del horario comercial y con la comodidad del no desplazamiento.
A la rentabilidad, la asequibilidad y la accesibilidad -por la facilidad y la velocidad- se añade la adecuación a las características y las necesidades del cliente en función de su perfil de riesgo para ofrecer un seguro personalizado o individualizado11. Gracias a los modelos predictivos puede hacerse una previa evaluación de sus riesgos, por sus hábitos y condiciones personales o profesionales, su comportamiento e historial, permitiendo ajustar las primas o diseñando productos a medida12. Las soluciones automatizadas13 favorecen el diseño y el ofrecimiento de unas pólizas de seguros personalizadas o individualizadas en función del perfil de riesgo del cliente. Ese perfil es obtenido a través del análisis de los datos que no solo son recogidos por los medios tradicionales (como el cuestionario del seguro de vida o de salud que debe contestar el tomador del seguro)14, sino también a través de dispositivos de geolocalización o de otras fuentes externas, procedentes de la Red o de las redes sociales15. A través de estas nuevas fuentes de obtención de datos (también de la compra de datos)16, sumadas a las fuentes tradicionales, se incrementa exponencialmente la cantidad de datos a analizar para ofrecer unas pólizas de seguros cada vez más ajustadas al perfil de cada cliente.
La recogida y el análisis de los datos, además de la personalización, pueden conllevar la inclusión. En un fenómeno que denominamos de inclusión aseguradora (en una especificación de la conocida expresión de la inclusión financiera), pueden ser asegurados riesgos antes no asegurables17 a través de seguros o microseguros personalizados, en tanto la tradicional asimetría informativa que sufría la entidad aseguradora puede ser suplida por la analítica y la evaluación de grandes cantidades de datos mediante el machine learning18. Los datos masivos están en un permanente suministro y en una constante actualización favorecida por la digitalización. Ahora bien, con los datos masivos aquella tradicional asimetría informativa altera o revierte su direccionalidad. La asimetría informativa se revierte. Ahora es el asegurado quien no conoce qué datos masivos suyos han sido recopilados y analizados por parte del asegurador ni tampoco sabe a través de qué fuentes externas han sido obtenidos tales datos. Esta asimetría informativa alterada o revertida (porque ya no afecta al asegurador, sino al asegurado) conlleva un desequilibrio (informativo) que puede afectar negativamente a la posición del asegurado19 y provocar su vulnerabilidad (digital), como ha tenido ocasión de poner de manifiesto la doctrina20. En efecto, el procesamiento de los datos masivos permite a la compañía aseguradora tener una posición ventajosa frente al asegurado, quien puede caer en una vulnerable posición de desequilibrio informativo21.
Por parte de la entidad aseguradora puede emplearse el aprendizaje automático o el enfoque basado en reglas para la mejora del proceso de la evaluación de los riesgos22, se reitera. Con estas herramientas tecnológicas puede analizarse con mayor rigor la situación personal y financiera del usuario para una mejor adaptación de la póliza y de la prima a sus necesidades, preferencias, comportamientos y riesgos23. Pueden analizarse igualmente los datos masivos para identificar los fraudes cometidos o a cometer por los asegurados24. Con la detección de los comportamientos fraudulentos presentes o de los patrones que identifiquen posibles conductas fraudulentas en el futuro se reducen para las compañías de seguros los costes asociados a las reclamaciones fraudulentas. En suma, pueden proporcionar las herramientas tecnológicas automatizadas -junto a otras tecnologías como el IoT o el IoE- una mejor y más veloz evaluación del riesgo, así como una menor tasa de fraude25.
Las anunciadas ventajas -bien para la compañía aseguradora, bien para la clientela o bien para una y otra- sostienen un proceso de progresiva digitalización y, en concreto, de automatización de la industria de seguros26, en general, y de la contratación de los seguros, en particular27. En la contratación del seguro el uso de los sistemas automatizados y, cada vez más, de los algoritmos avanzados (mediante las técnicas del aprendizaje automático o sobre la base de reglas) pueden emplearse en alguna, en varias o en todas las etapas del ciclo de vida contractual con uno u otro grado o, en su caso, con ningún grado de intervención humana28.
2. EL USO DE LOS SISTEMAS DE AUTOMATIZACIÓN PARA LA ATENCIÓN, EL ASESORAMIENTO O LA RECOMENDACIÓN DE SEGUROS
La tendencia presente y creciente de la automatización tiene una alta capacidad de penetración y extensión en los múltiples procesos asociados al contrato de seguro29. Entre ellos, vamos a ejemplificar, a continuación, la automatización en el proceso de la atención y la consulta por medio de los chatbots. Lo ejemplificaremos, primero, en el proceso del asesoramiento o la recomendación a través de los conocidos robo-advisors. Unos y otros sistemas robóticos no solo funcionan y se expanden en materia de inversión o gestión de carteras de valores (automatizadas), sino también en el campo del seguro. Proporcionan soluciones personalizadas para el usuario interesado en contratar un seguro30.
2.1. El uso de los "asesores robóticos" para el asesoramiento o la recomendación de seguros
Los robo-advisors -como asesores robóticos o gestores automatizados- ofrecen al cliente de seguros, en función de su perfil, recomendaciones personalizadas. Por ejemplo, buscan los productos de seguros más adecuados para la clientela, a partir de unas palabras clave31. Ofrecen pólizas y coberturas de las pólizas basadas en las necesidades del cliente. El asesoramiento es automatizado e individualizado. ¿Tan individualizado o particularizado como puede ser el asesoramiento que ofrezca un gestor humano? Se escuchan las voces críticas de quienes aseguran que un algoritmo no es capaz de asesorar atendiendo tan específicamente al perfil del cliente como es capaz de hacerlo un asesor humano32.
Para un asesoramiento aún más individualizado, aquel asesoramiento automatizado que emplea algoritmos, big data y árboles de decisión puede combinarse con la intervención humana. En esa combinación existe la posibilidad técnica del contacto entre el asesor humano y el cliente (siempre humano) tras el asesoramiento o la recomendación por la plataforma tecnológica en que consiste aquel gestor automatizado. La conjugación del asesoramiento humano con el robotizado (con los roboasesores no puros, sino híbridos)33 no conduce a una plena desintermediación ni despersonalización34.
Pero ¿podría llegar a ser desplazado el asesoramiento humano? O, en otros términos, ¿podría asesorarse sin la intervención humana en ninguna de las etapas? Cada vez con menos intervención35, la propensión es a la desintermediación. "¿Caminamos hacia una desintermediación total del contrato de seguro?", fue la pregunta que formuló el profesor Veiga Copo. Se mantiene la duda de si llegará a extenderse una plena desintermediación36, es decir, un servicio íntegramente automatizado sin la participación humana en ninguna de las etapas, ni siquiera en la posterior para la resolución de las cuestiones y dudas de un cliente que ha sido previamente informado por el sistema automatizado. En un crecimiento de esta tecnología que se intuye exponencial, los servicios actuales que vienen prestándose no suelen estar automatizados del todo37, pero técnicamente pueden estarlo, si lo permite la legislación. La legislación europea no permite, sin embargo, prescindir de la intervención humana.
Pese a ese crecimiento expansivo intuido, hay que constatar que, en el mercado financiero en general, algunos asesores y gestores automatizados que nacieron por completo digitalizados luego regresaron a un modelo mixto de asesoramiento compartido entre asesores-gestores automatizados y asesores-gestores personas físicas. Ese asesoramiento compartido tuvo su razón de ser en la necesidad tradicional y habitual de la clientela de contactar (aunque sea con un contacto a distancia) con los seres humanos para consultar dudas o verificar si han entendido bien el asesoramiento proporcionado por los asesores robotizados38.
Pese a este viaje de regreso de la automatización a la humanización -en un viaje compartido-, la tecnología permite un viaje de ida -en solitario- a una automatización en exclusiva, sin necesidad de ninguna intervención humana. En la tendencia expansiva de la automatización destaca la presencia (nunca física) de los sistemas automatizados que atienden (previamente programados por el ser humano) al cliente en el mercado financiero, en general, y en el mercado de seguros, en especial. Y, mientras atienden, aprenden (en un aprendizaje continuo) del cliente y del mercado39.
Pero la presencia en exclusiva del asesoramiento automatizado, aunque sea posibilitado por la técnica, no lo está por la normativa europea. La Directiva de la Unión Europea 2023/2673 del Parlamento Europeo y del Consejo, de 22 de noviembre de 202340, prevé una modificación de determinados preceptos de la Directiva europea 2011/83/UE41, sobre los derechos de los consumidores. La modificación incluye un nuevo capítulo con normas para la contratación a distancia de los servicios financieros42, también de los servicios en el mercado de seguros. En ese nuevo capítulo hay un artículo rubricado "explicaciones adecuadas"43. Una adecuada explicación la garantiza la intervención humana. El consumidor tiene el "derecho a solicitar y obtener la intervención humana en la fase precontractual". Incluso, si existe justificación, también tras la celebración del contrato a distancia cuando el empresario haga uso de las herramientas en línea44. Se trata de garantizar lo que el Considerando 15° de esta Directiva de 22 de noviembre de 2023 define como "la equidad en línea", garantizando la transparencia y solicitando la intervención humana cuando el consumidor haya interactuado con interfaces en línea automatizadas; como lo es el asesoramiento automatizado procedente de los robo-advisors o la conversación robotizada con los chatbots. Parece dar a entender esta directiva europea que las "interfaces en línea totalmente automatizadas" no garantizan suficiente transparencia por no ofrecer "explicaciones adecuadas" que sí pueden darse, en cambio, cuando interviene un ser humano capaz de entender las dudas y las cuestiones de la clientela y de ofrecer mejor unas correctas explicaciones.
En España la Ley por la que se regulan los Servicios de Atención a la Clientela -en fase de un proyecto de ley, primero, de 10 de junio de 202245 y, después, de 8 de marzo de 202446-, aplicable a las empresas de los servicios financieros47, contiene el "principio de prestación personalizada"48. Porque rige la "atención personalizada"49 prohíbe, su artículo 8.1, "el empleo de los contestadores automáticos u otros medios análogos como medio exclusivo de atención a la clientela". Ha de garantizarse una "atención personalizada" a los usuarios en caso de consulta o queja, de reclamación o incidencia50. Tiene el usuario el derecho de poder solicitar que se transfiera la comunicación a una "persona física supervisora"51. La atención personalizada ha de poder solicitarse "en cualquier momento de la interacción" cuando se está hablando con "contestadores automáticos, bots conversacionales u otros medios análogos"; conforme dicta el apartado segundo de este artículo 8.
Para poder ejercitar el usuario el derecho de solicitar que se transfiera la comunicación de la máquina a una persona física, con la que entablar una conversación personalizada, antes ha de conocer el usuario que está manteniendo una conversación con una máquina, en vez de con un ser humano. En este sentido, entre las obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA está la obligación de informar al usuario que interactúa con un sistema de IA. Esta obligación descansa en el artículo 50.1 de la denominada Ley de IA europea. Con la falsa denominación de ley, se trata del Reglamento (UE) 2024/1689 del Parlamento europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (o Reglamento de IA)52.
Bajo el título de obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA, este artículo 50.1 del Reglamento de IA (o, si se prefiere otra denominación también habitual, de la Ley de IA) exige que los proveedores garanticen que el diseño y desarrollo de los "sistemas de IA destinados a interactuar directamente con personas físicas" se haga de tal forma que las personas físicas estén informadas de que interactúan con una máquina y no con una persona. No obstante, incluye, acto seguido, la siguiente excepción: cuando sea evidente que se interactúa con un sistema de IA para una "persona física razonablemente informada, atenta y perspicaz".
La necesidad de información para ser consciente de quién está proporcionando el asesoramiento entra en conexión con el avance progresivo e imparable de una automatización basada, cada vez más, en sistemas de IA cada vez más inteligentes, aplicados a los procesos de asesoría y recomendación precontractual en el sector financiero en sentido amplio y, dentro de él, en el sector asegurador.
2.2. El uso de los robots conversacionales para la atención y conversación sobre los contratos de seguro
También se observa el mencionado proceso -antes o durante el asesoramiento y la recomendación- en los sistemas de conversación53. La conversación automatizada o robotizada se presta con la conocida tecnología de los bots de charla o los asistentes virtuales, esto es, de los chatbots. A modo de "agentes de seguros automatizados", se expanden estos softwares de comunicación en los seguros de salud, más allá de los servicios de consulta médica donde existe la intermediación del médico para conversar y contestar las cuestiones del usuario por medio de una videollamada o un chat. Fuera del sector de seguros de salud pueden, asimismo, emplearse y difundirse para prestar información y atención a las necesidades de los usuarios, por ejemplo, sobre la declaración de los siniestros o los procesos de reclamación54. Atienden consultas y resuelven dudas en cualquier momento del día de cualquier día de la semana.
Para unos u otros ámbitos del seguro, por medio de un software integrado en un sistema de mensajería puede mantenerse una conversación no personal, sino robotizada. Cuando se emplea el "procesamiento de lenguaje natural" (natural language processing o NLP, en sus siglas en inglés) puede parecer que se conversa con un ser humano. Este parecer conversar con una persona, en vez de con una máquina, no sucede tanto cuando se interactúa con un "chatbot basado en reglas" predeterminadas, sino cuando se está interactuando con un "chatbot con IA".
La intervención humana, no obstante, puede estar presente tras el contacto digital del cliente con la plataforma conversacional en un modelo híbrido o mixto55 que redirige la conversación automatizada a una llamada telefónica con un asesor personal56, cuando lo solicita el cliente. Podría también estar ausente si lo permitiese la legislación, pero no lo permite la legislación de la Unión Europea, se insiste.
Sin necesidad técnica, aunque sí legal, de la intervención humana y sin necesidad de que la información esté predeterminada en documentos estandarizados, cuando son sistemas automatizados basados en el aprendizaje automático y el aprendizaje profundo pueden estos robots conversacionales aprender a comprender las preferencias de los usuarios con quienes conversan, más cuanto más alta sea su capacidad intelectual artificial. Aprenden a partir de los datos generados o proporcionados por la empresa (de seguros) y aprenden de los datos y los perfiles o comportamientos de la clientela a la que atienden a distancia y sin contacto. El aprendizaje, además de automatizado, es activo y continuado.
Con la reducción o, incluso, la desaparición que permite la tecnología (aunque no la permite la legislación europea) de la intervención de los intermediarios humanos se avanza en un progreso encaminado a rápidos pasos a una desintermediación automatizada o, mejor dicho, semiautomatizada mediante los robo-advisors y los chatbots. Estos mecanismos automatizados minoran los tiempos de atención y de espera a la clientela, en una atención continuada en cualquier día de la semana. También minoran los costes. Puede haber unas "menores comisiones de gestión" en la prestación de unos servicios que se prestan por Internet57. La reducción de los costos económicos para las compañías aseguradoras podría llegar a provocar (aunque no siempre lo provoque) un abaratamiento de los productos de seguros ofrecidos, por la aplicación de unas tarifas y unas comisiones más bajas, como antes hemos adelantado y ahora enfatizado.
El resultado final provocado es una mayor facilidad de uso y una mejor accesibilidad (online desde cualquier dispositivo tecnológico) de la clientela al mercado de seguros58. Mejora la rentabilidad económica cuando se reducen los tiempos y los costes. Mejora la eficiencia productiva con unos modelos de evaluación automatizada de los riesgos. ¿Mejora también la eficiencia en el servicio de atención al usuario cuando es automatizado o semi-automatizado?, nos preguntamos. ¿Mejora la calidad de la atención, el asesoramiento o la recomendación a los usuarios cuando la prestación de los servicios se automatiza?, insistimos en preguntar. Quizá mejora o quizá solo cambia.
Quizá la respuesta dependa no solo del usuario, sino del tipo de chatbot con el que interactúa el usuario. Probablemente no sea igual la calidad de la prestación del servicio ofrecido mediante un "chatbot basado en reglas" (con opciones de respuestas que están predefinidas, en función de las preguntas) que con un "chatbot con IA conversacional" (con "procesamiento del lenguaje natural") ni menos aún con un "chatbot con IA generativa" (o IAG), con una capacidad mayor de comprensión del lenguaje que habla el usuario59.
De momento y hasta la fecha, estando generalizados en el campo de los seguros el primero de los tipos de chatbots enunciados, esto es, los basados en reglas predeterminadas, y estando entrenados con datos básicos, la calidad no es elevada. En un análisis llevado a cabo en 2023, a partir de la encuesta a sesenta y tres profesionales de la industria de seguros española, en torno a la calidad y la utilidad de los robots conversacionales, la respuesta generalizada fue la insatisfacción60. Los motivos de la insatisfacción fueron variados. Entre ellos, la dificultad de interacción, por no comprender bien el sistema robótico los cambios de tono o de voz del ser humano; la escasa fiabilidad derivada de la existencia de fallos recurrentes en las respuestas a las cuestiones más complejas, así como la ausencia de habilidades emocionales del robot61. Satisfizo, en cambio, la flexibilidad horaria en la atención. Para las preguntas y las gestiones sencillas, la satisfacción también se elevó62. Ahora bien, para la resolución de otras más complejas habían de terminar de solucionar las dudas y las gestiones los operadores humanos. En la atención humana la empatía también se apreció63. Quizá cuando los sistemas robóticos conversacionales sean más avanzados, por la generalización de los chatbots con IA generativa, la opinión generalizada negativa sea sustituida por otra más positiva si hay más fiabilidad ¿y más empatía?
3. ALGUNOS RIESGOS DERIVADOS DEL USO DE LOS SISTEMAS DE AUTOMATIZACIÓN EN LA CONTRATACIÓN DE SEGUROS
El cambio a la automatización entraña potenciales peligros en forma de fallos o sesgos. En nuestra mente siempre están, además, posibles manipulaciones algorítmicas derivadas de los ciberriesgos o hackeos que afectan intrínsicamente a cualquier tecnología. Algunas de las consecuencias de los potenciales peligros son conocidas, otras solo son intuidas y algunas otras pueden estar aún por intuir y por conocer en un proceso de digitalización y, en concreto, de automatización que no conoce limitación.
Entre las consecuencias conocidas, resaltemos que, en la práctica de las plataformas tecnológicas en la que consisten los roboasesores, la información prestada en el mercado financiero, en general, ha adolecido, en algunas ocasiones, de adecuación o suficiencia64. Ya en el año 2019, la profesora Peñas Moyano advertía que la cuestión de que la información se presentase en este entorno digital "de un modo insuficiente e inadecuado" se planteaba "de manera concreta en relación con los robo-advisors", sin que se hubiesen "previsto cautelas al respecto"65. Cuando hay una falta de suficiente y adecuada información se merma la transparencia. La menor o la nula interacción personal, por medio de una progresiva automatización en el asesoramiento y la atención en línea, pueden entrañar peligros en forma de limitaciones de la información que recibe la clientela por parte de la herramienta robotizada. También pueden provocarse sesgos procedentes de los resultados algorítmicos del asesoramiento, aparte de errores técnicos en la configuración o el funcionamiento de tales algoritmos, por poner algunos ejemplos.
3.1. Riesgos para la transparencia algorítmica
En el supuesto de que existan fallos en el diseño algorítmico se ofrecerán a los usuarios respuestas de asesoramiento o de recomendación erróneas, en base a las cuales quizá tomen decisiones perjudiciales para sus intereses que deriven, en última instancia, en reclamaciones (cuyo proceso también se automatice). Para que no existan tales errores ha de revisarse la calidad de los datos que han sido introducidos o empleados y han de realizarse auditorías para identificar posibles problemas en los algoritmos66. Es necesario, en efecto, auditar estos procesos. Aun así, puede haber errores humanos, además de fallos tecnológicos. Errores humanos en la programación o en la interactuación con el sistema automatizado, en la introducción de los datos de la que resulte que el sistema genere mensajes incorrectos, o a causa de la interferencia de terceras personas en el sistema automatizado. Además de estos u otros errores humanos, puede haber errores técnicos que provoquen un mal funcionamiento67. Aun en la hipótesis de no que no surgieran errores ni de uno ni de otro tipo, podría haber una insuficiente información o una ininteligente explicación. El reto al que siempre atender es al de la transparencia informativa mediante explicaciones suficientes, correctas, claras y sencillas68. La falta de transparencia impide una óptima supervisión.
Puede haber opacidad, en lo que ha venido denominándose como el efecto o el riesgo de la caja negra; en la traducción al español de la difundida expresión anglosajona black box risk69. Frente a la opacidad de las cajas negras, se sitúa la necesidad de la "explicabilidad algorítmica" con el fin de comprender y dar a comprender la lógica que se halla detrás de las decisiones que adoptan los sistemas de automatización. Pero cuando el sistema automatizado incluye técnicas de IA, en ocasiones, no resulta fácil explicar las acciones que ha llevado a cabo (de manera "autónoma") ese sistema automatizado que incorpora técnicas de IA, sobre todo, cuando es una IA avanzada. No obstante, para que la IA sea explicable (o XAI, por explainable AI) existen técnicas y herramientas de interpretación y explicación de las decisiones de los algoritmos. Aun así, muchas veces, persiste la dificultad de explicar, como también la de rastrear el resultado. Pero para la transparencia, y frente a la opacidad, resulta necesaria esa explicabilidad y rastreabilidad.
La transparencia algorítmica ha de estar, no obstante, balanceada con el derecho de la empresa a no revelar información externa respecto del funcionamiento del sistema automatizado y de los algoritmos empleados cuando está en juego la protección de la propiedad intelectual y del secreto industrial. Ese equilibrio entre una y otro lo mencionó la nota de la Secretaría de la Comisión de Naciones Unidas para el Derecho Mercantil Internacional (CNUDMI o UNCITRAL) sobre las "cuestiones jurídicas relacionadas con la economía digital" en su "propuesta de labor legislativa relativa a las operaciones electrónicas y el uso de la inteligencia artificial y la automatización", de 5 de mayo de 202170. Ese equilibrio lo refrendó el Parlamento europeo en su Resolución, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital71.
El principio de la transparencia -anudado al principio de la explicabilidad y la trazabilidad, y balanceado con el derecho a no revelar la información que esté protegida por la protección intelectual o el secreto industrial- enlaza en la esfera interna de la empresa con la obligación legal de dar a conocer al comité de empresa (como órgano colegiado de representación de los trabajadores) la motivación del algoritmo. En concreto, hay que informar respecto de las reglas, los parámetros y las instrucciones para la "toma de decisiones automatizadas", incluyendo la "elaboración de perfiles". En estos términos, la obtención de la información algorítmica es un derecho colectivo de los trabajadores de la empresa a través del comité de empresa que los representa72. Esta información algorítmica, que viene obligada la empresa a dar a conocer al comité de empresa, incluye -conforme se ha adelantado- la "elaboración de perfiles". Por tales ha de entenderse, de acuerdo con el artículo 4.4 del Reglamento General de Protección de Datos europeo (RGPD)73, lo siguiente (literalmente): "Toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física".
La transparencia enlaza, a su vez, en la esfera externa a la de las relaciones de la empresa con los trabajadores, con la protección de los datos personales de los usuarios. Enlaza en esta esfera externa o exterior a la empresa, en particular, con el derecho de información de las personas afectadas por las decisiones automatizadas, quienes han de poder conocer no solo la existencia de la automatización de las decisiones (incluida la elaboración de los perfiles), sino también la lógica aplicada. Tanto la existencia de la automatización de las decisiones como la lógica aplicada en esas decisiones automatizadas ha de darse a conocer de acuerdo con la exigente reglamentación europea sobre la protección de los datos personales. En efecto, los artículos 13.2.f) y 14.2.g) del RGPD europeo contienen el derecho del interesado de ser informado acerca de la existencia de las decisiones automatizadas, incluida aquella elaboración de los perfiles. Incluye, así mismo, el derecho de conocer la "información significativa sobre la lógica aplicada". También el derecho a recibir información sobre la importancia y las consecuencias previstas para el interesado del tratamiento de los datos. Ese derecho de información surge tanto cuando los datos personales se obtienen del interesado (artículo 13.2. f)) como cuando los datos no se obtienen del interesado (artículo 14.2.g)). En el primer caso, es decir, cuando los datos se obtienen del interesado, el responsable del tratamiento de los datos los facilitará en el momento de esa obtención de los datos, de acuerdo con el citado artículo 13. En ambos casos es para garantizar un tratamiento de los datos personales leal y transparente74.
Ahora bien, no puede dejar de mencionarse, por otro lado, la posibilidad de sufrir ataques cibernéticos que manipulen los algoritmos por brechas de seguridad y con filtraciones de los datos personales. Pero, aun sin que se produzca una filtración de los datos por un hackeo, subsiste la duda acerca de cómo mantener con corrección la protección de los datos personales de la clientela de seguros cuando las decisiones son automatizados. La respuesta a esta duda enlaza con la necesidad de seguir cumpliendo, en el territorio de la Unión Europea, con las normas del Reglamento General de Protección de Datos (o RGPD) que rige y protege los datos personales.
De la citada reglamentación europea sobre la protección de los datos interesa destacar ahora su artículo 22. Se titula del siguiente modo: "Decisiones individualizadas automatizadas, incluida la elaboración de perfiles". Su apartado primero prohíbe que las decisiones estén basadas en exclusiva en el tratamiento automatizado, "incluida la elaboración de perfiles", si produce efectos jurídicos o afecta de forma significativa al interesado. No obstante, incluye el apartado segundo tres excepciones. La primera75, si esa decisión automatizada resulta necesaria para celebrar o ejecutar un contrato entre el interesado y el responsable del tratamiento de los datos personales. La segunda76, que la decisión automatizada está autorizada por el Derecho de la Unión Europea o de sus Estados miembros, siempre que se salvaguarden los derechos y los intereses legítimos del interesado. La tercera y última excepción77, cuando el interesado dé su "consentimiento explícito" a que la decisión se base únicamente en el tratamiento automatizado.
Tanto en la primera como en la última de las citadas excepciones, el responsable del tratamiento de los datos personales habrá de adoptar todas aquellas medidas que sean adecuadas para salvaguardar los derechos e intereses legítimos del interesado. Y, entre ellos, al menos, "el derecho a obtener intervención humana por parte del responsable" del tratamiento de los datos personales, además del derecho a poder expresar su punto de vista y, en caso de no estar de acuerdo, a impugnar la decisión automatizada78. En el apartado preliminar de este Reglamento general, dispone (el Considerando número sesenta y tres) que cualquier interesado tiene el derecho a conocer "la lógica implícita en todo tratamiento automático de datos personales y, por lo menos cuando se base en la elaboración de perfiles, las consecuencias de dicho tratamiento".
Además, en general, hay que acentuar que los usuarios han de estar informados acerca de si interactúan o no con un sistema automatizado. Así, las "Directrices éticas para una inteligencia artificial fiable"79, dictadas por el grupo independiente de expertos de alto nivel sobre inteligencia artificial -constituido por la Comisión europea en junio de 2018- indicaron que "los seres humanos siempre deberían saber si están interactuando directamente con otro ser humano o con una máquina. Los profesionales de garantizarlo son los profesionales de la inteligencia artificial [cuando el sistema automatizado se base o engarce con un sistema de inteligencia artificial]. Dichos profesionales deberían, por tanto, asegurar que las personas sean conocedoras de que están interactuando con un sistema de inteligencia artificial o puedan preguntar y dar su aprobación al respecto".
3.2. Riesgos de colusión algorítmica80
Pero los riesgos no entroncan únicamente con la protección y la seguridad de los datos personales, sino también con posibles conductas abusivas. Entrevé la doctrina81 que la posibilidad (tradicionalmente presente) de que aparezcan prácticas colusorias entre las compañías aseguradoras (por ejemplo, de acuerdos de aumentos o reducciones de las primas o de repartos del mercado) se amplía con la IA, en lo que se denomina la "colusión algorítmica" o, si se prefiere, la "colusión de la IA"82. La ampliación y el refuerzo procede de la inmensa capacidad de los sistemas de IA no solo de recopilar y procesar ingentes cantidades de datos procedentes de múltiples fuentes, sino también de detectar los patrones basados en aquellos datos y de aprender de ellos83. Con una capacidad cada vez más autónoma, los sistemas de IA podrían tomar decisiones autónomas o semiautónomas y colaborar implícita o explícitamente entre ellos (por la utilización de iguales o similares algorítmicos) provocando manipulaciones (por ejemplo, de fijación de los precios) en el mercado de seguros. De ser así, se estaría limitando la competencia y perjudicando, en último extremo, a los consumidores de los productos de seguros. Cuando suceden estas prácticas colusorias de IA puede ser difícil de demostrar, en tanto exista una falta de "transparencia algorítmica".
También enlazan los riesgos con los conflictos de interés84. O, acaso ¿desaparecen los conflictos de interés cuando la desintermediación es algorítmica?85. La ausencia de conflictos de interés ha sido expresada como una ventaja para el cliente de un "gestor automatizado"86. No obstante, estando -como están- los algoritmos programados por la mano del ser humano contratado o subcontratado por una o varias entidades (de seguros) puede subsistir un conflicto de interés cuando el asesoramiento o la recomendación tiendan a los productos o servicios de dichas compañías. Así podría ser hasta que el algoritmo incorporase una solución de IA tan avanzada, por tan inteligente, que se independizase por completo de aquel ser humano en su toma de decisiones hasta acometer un asesoramiento totalmente libre de conflicto de interés. Mientras no sea así (¿y quizá también cuando sea así?), dependerá de cómo y quién programe el bloque de los algoritmos que pueda haber un mayor o un menor conflicto de interés o, en su caso, ningún conflicto.
Por otro lado, hay que recalcar el hecho de que pueden producirse sesgos derivados de las decisiones automatizadas. Ha de mencionarse el hecho de que, al evitarse los sesgos emocionales con el empleo de los algoritmos87, pueden provocarse sesgos cognitivos. Estos otros sesgos -los cognitivos- surgen por falsamente llegar a creer los usuarios que el asesoramiento proporcionado por el algoritmo es absolutamente objetivo, por estar desprovisto de la subjetividad humana, sin constatar que tras ese asesoramiento se hallan personas físicas encargadas de su operatividad y cargadas de subjetividad. Se trata del conocido doctrinalmente como el "falso mito de los algoritmos neutrales", al que aludió el profesor Tapia Hermida88. Frente a este "falso mito" hay que subrayar que, aunque la complejidad del sistema pueda variar en función de los más o menos avanzados algoritmos empleados, se trata de una ejecución de procesos previamente programados por el ser humano.
3.3. Riesgos de discriminación algorítmica
A los reseñados posibles riesgos en forma de sesgos (no siempre intencionales) se añade -se recalca- la posibilidad de cometer errores de programación del software o de producirse fallos informáticos que afecten al diseño o al funcionamiento algorítmico. La denominada discriminación automatizada -directa o indirecta, múltiple (por ser causada por varios factores simultáneamente) o interseccional (con variadas causas de discriminación)- puede venir provocada tanto por aquellos sesgos (usualmente no voluntarios) como por estos fallos algorítmicos.
A la discriminación automatizada, incluida la discriminación indirecta provocada por los sesgos creados o reforzados por la IA, aludió el párrafo 27° de la Resolución del Parlamento europeo, de 20 de octubre de 2020, sobre un marco de los aspectos éticos de la IA, la robótica y las tecnologías conexas89. Fue el citado grupo independiente de expertos de alto nivel sobre la IA, constituido por la Comisión europea, quien aludió a los "sesgos injustos" cuando los sesgos (por ejemplo, en la recogida de los datos o en la programación del algoritmo) provocan una discriminación. La igualdad y la no discriminación son derechos fundamentales básicos para una IA fiable, en atención a las directrices éticas que dictó este grupo independiente de expertos90.
El derecho a la igualdad y a la no discriminación en el ámbito digital se recoge, además, en la "Carta de Derechos Digitales" publicada en España, en julio de 2021, como una guía y hoja de ruta para la promulgación de la legislación. El artículo VIII de esta Carta de Derechos Digitales acoge el principio de igualdad y no discriminación, incluyendo la no exclusión, en los entornos digitales, incluyendo el entorno automatizado.
Los sistemas automatizados o, en su caso, semiautomatizados utilizados para generar decisiones por parte de las empresas (por ejemplo, de seguros) reproducen los sesgos del entorno físico y los mantienen o, incluso, los agravan. Estos sesgos generados o agravados pueden desembocar en una indeseada discriminación algorítmica también en la contratación, también en el terreno asegurador, cuando se emplean macrodatos y programas de IA, como los de machine learning; como pueden emplearse en el ámbito asegurador. Por poner algún ejemplo, tal discriminación algorítmica podría generar decisiones (automatizadas o semiautomatizadas) injustas en la decisión de la concesión o no concesión de un seguro de vida o de enfermedad y asistencia sanitaria91, o en su concesión con una prima más elevada y en unas condiciones contractuales más agravadas.
En el encuentro internacional celebrado en el Reino Unido, durante los dos primeros días de noviembre de 2023, que dio lugar a la firma de la Declaración de Bletchley (firmada por veintiocho países más la Unión Europea), la vicepresidenta en aquella fecha de los Estados Unidos, Kamala Harris, se preguntó (en el texto aquí traducido) lo siguiente: "Cuando una persona mayor es expulsada de su plan de salud debido a un fallo en un algoritmo de inteligencia artificial, ¿no es eso existencial para él?"92
Interrogación similar a la que acaba de ser citada podría plantearse en el caso de los contratos de seguros de personas, en cuanto a la potencial discriminación y la exclusión de determinadas personas o colectivos del aseguramiento privado. Aun cuando no pueda olvidarse que el negocio asegurador conlleva intrínsecamente cierta discriminación para la mejor evaluación de los riesgos y para el ajuste de las primas93, los fallos algorítmicos tienen la potencialidad de exacerbar un tratamiento diferenciado que llegase a no estar justificado y que conculcase el derecho a la no discriminación. Ese tratamiento discriminatorio -por diferenciado no justificado-, exista o no exista una intención de causar una discriminación, ocasionaría un perjuicio a los potenciales usuarios de seguros94. Para que no lo cause se requieren verificaciones de los algoritmos y de los datos utilizados por los algoritmos95. Sin medidas de verificación ni de prevención puede caerse en una (indeseada) discriminación digital de la clientela de los contratos de seguros.
La discriminación digital también puede proceder, en vez de por los sesgos o fallos algorítmicos, por las "prácticas de optimización de precios", derivadas del ajuste personalizado de la oferta de las primas a los riesgos de cada asegurado (o potencial asegurado) que se favorece por la utilización de esos mecanismos automatizados que analizan una ingente cantidad de información. Esas "prácticas de optimización de precios" pueden derivar en discriminación e, incluso, en exclusión financiera; como bien advierte la profesora Quintáns Eiras96. Si en las páginas precedentes comentábamos que la personalización podía conducir a la inclusión financiera y, en particular, a la "inclusión aseguradora", ahora debemos hablar -como contrapartida- de la exclusión financiera y, en particular, de la exclusión aseguradora a causa de esas prácticas de optimización de precios cuando las primas ofertadas son en exceso elevadas.
Qué sea la discriminación digital no resulta fácil de conceptualizar. Pero en el terreno de nuestro estudio engarza con la existencia de exclusión, restricción o preferencia que afecta de un modo negativo al cliente de seguros, quien puede llegar a verse excluido contractualmente o, en su caso, limitado y perjudicado en sus derechos contractuales.
4. ANTE LOS RIESGOS, LAS CUESTIONES JURÍDICAS
Ante la amplia variedad de posibles riesgos, en forma de fallos o sesgos, derivada de la diversidad, la complejidad, la conectividad y la opacidad de los sistemas automatizados, aparecen cuestiones y problemas jurídicos por resolver.
Surgen cuestiones en torno a la asignación de la responsabilidad por los errores cometidos por el uso de las máquinas y los algoritmos. Por ejemplo, ante un asesoramiento defectuoso proporcionado por el sistema (semi)automatizado basado en unos algoritmos más o menos avanzados, ¿quién revisa? ¿quién garantiza? ¿quién se responsabiliza?97 Y "¿de qué responsabilidad, por ejemplo, hablamos cuando una entidad financiera [en este caso, una entidad de seguros] opera a través de asesores robóticos para recomendar o perfeccionar cierto tipo de productos o servicios?", en la cuestión formulada por el profesor Veiga Copo98. En otras dos de las cuestiones planteadas por este profesor: "¿Qué ocurre "con el daño y los sistemas de responsabilidad civil que la acción u omisión" de la inteligencia artificial y de la "tecnología digital causa a los terceros"? y "¿sirven los viejos esquemas de responsabilidad civil que conocemos?"99. Respecto de la asunción de la responsabilidad, por ejemplo, por una inadecuada gestión o por una incorrecta atención o recomendación indebidas llevadas a cabo por un chatbot o un robo-advisor, cabe aludir a la siguiente afirmación del profesor Veiga Copo: "Quien genera el riesgo es a priori responsable"100. Lo será la empresa aseguradora (cuando nos movemos en el campo asegurador) que haya generado el riesgo, por ejemplo, por una programación errónea o una falta de supervisión de los algoritmos en los que se basa el sistema automatizado o semi-automatizado.
Más allá del campo asegurador, en general, los interrogantes en torno al control enlazan con el régimen de la responsabilidad civil, en tanto -a causa de la opacidad y de los numerosos agentes intervinientes101- puede ser muy costoso o, incluso, llegar a ser imposible determinar al sujeto que controla los riesgos innatos en los sistemas automatizados, más aún cuando se hace uso de sistemas de IA. Así lo manifestó el Parlamento europeo en el Considerando H de la Resolución de 20 de octubre de 2020 sobre un régimen de la responsabilidad civil en materia de IA102. En efecto, "una de las cuestiones más complejas en la utilización de los sistemas de IA se revela a la hora de identificar quién es la persona que controla el riesgo asociado a dicho sistema", en la acertada aseveración del profesor Girgado Perandones103. Será la persona que controla el riesgo asociado al sistema de IA la responsable del daño que a los terceros puedan causarse104. Pero, en ocasiones, resulta muy complejo llegar a determinarla; dificultando o imposibilitando la identificación del nexo entre el daño causado y el comportamiento que lo causó105.
En general, a las cuestiones en torno a la responsabilidad civil en los supuestos de fallos tecnológicos, así como a los mecanismos de reparación por los errores cometidos por parte de los asesores robóticos, atendió la Nota de la Secretaría de la CNUDMI (o, si se prefiere en inglés, UNCITRAL), de 28 de febrero de 2022, sobre el "acceso a las microempresas y pequeñas y medianas empresas al crédito". Esta nota puso como ejemplo106 la referencia de la Comisión de Valores y Futuros de Hong Kong a la "persona debidamente calificada". Es esa "persona debidamente calificada" quien asume la comprobación, revisión y garantía de que el asesoramiento prestado por el asesor automático esté basado en la "razonabilidad". Aun no estando apegado este ejemplo al sector asegurador, puede servir de orientación.
Para los mercados de instrumentos financieros, la normativa europea contenida en la Directiva MiFID II107 y en el Reglamento Delegado MiFIR108, para la prestación de los servicios de asesoramiento financiero, no distingue -en el terreno de las obligaciones y de la responsabilidad- en el servicio de asesoramiento financiero en función de si es automatizado o no. Recae, en uno u otro caso (automatizado o no), en la empresa prestadora del servicio109. No habría diferencia y sería con independencia de que se emplease o no un sistema automatizado. El hecho de que los chatbots y los robo-advisors presten de forma automatizada los servicios de atención y comunicación, de asesoramiento o de recomendación, no supone distinción alguna en relación con la normativa a aplicar al servicio prestado. Es igual la regulación haya o no haya automatización, en uno u otro grado. Los chatbots y los robo-advisors están sometidos a la regulación y la supervisión a la que se somete a los gestores y asesores tradicionales110 no automatizados. En términos regulatorios, es la misma supervisión y regulación financiera111 para uno u otro asesoramiento con el propósito de mantener la estabilidad y la confianza en el mercado, así como la protección de la clientela.
Lo anterior está en consonancia con el resultado de la consulta pública a la que se sometió el documento, publicado el 4 de diciembre de 2015, de las autoridades europeas de supervisión financiera (bancaria, de valores y mercados, y de seguros y pensiones de jubilación) que preguntaba si existía o no la necesidad de incorporar requisitos adicionales para el "asesoramiento financiero automatizado"112. El resultado negativo tuvo en aquella ocasión un doble fundamento: de un lado, el desarrollo aún inicial en aquella fecha (en 2015) de este tipo de asesoramiento y, de otro, la aplicación de la normativa europea a cualquier asesoramiento113, sea o no automatizado.
Pero se plantea en la práctica jurídica la cuestión de si "la utilización masiva de los robo-advisors requerirá en el futuro una regulación específica"114. Puede responderse115 que, al menos, precisa y precisará advertencias ante los riesgos. Aun con advertencias, cuando los robo-advisors vienen acompañados de una inteligencia artificial cada vez más inteligente, ¿será conveniente incluir requisitos de regulación o supervisión adicionales o distintos, en un empleo masivo o recurrente en los distintos ámbitos del mercado financiero, también en el de seguros?
Las continuas transformaciones de un sector de los seguros, (r)evolucionado por los algoritmos más o menos avanzados, mantiene una serie de interrogantes que abarcan al terreno jurídico. Una vez han sido anunciados en el anterior epígrafe varios de los riesgos, cabe preguntarse: ¿resulta preciso el establecimiento de modificaciones o adiciones en las actuaciones de regulación y supervisión? De otro modo dicho, ¿conviene que la regulación sea especial o, al menos, contenga ciertas especialidades para un adecuado ajuste a esta tecnología sin parangón que no es naciente, sino creciente en un crecimiento que se intuye vertiginoso? En general, ¿cómo está en tránsito y hasta dónde transita la regulación para la adaptación, con seguridad jurídica, a los sistemas automatizados y de inteligencia artificial, más cuanto más inteligentes sean?
Con independencia de cuáles sean los riesgos atisbados en el presente o por atisbar en un futuro más o menos cercano por la automatización, las banderas a alzar habrán de seguir siendo la regulación y la supervisión para la salvaguarda de la clientela y la confianza en el mercado, en este caso, en el mercado de seguros. El legislador habrá de continuar dando respuestas a los interrogantes que vayan surgiendo en la práctica económica, en general, y en la aseguradora, en particular, para dotar de seguridad jurídica al tráfico económico.
De momento, podemos seguir debatiendo si los sistemas automatizados, sobre todo cuando incorporan sistemas de IA, justifican la necesidad de aprobar, revisar o adicionar la normativa, a los efectos de no descuidar ni la protección de los derechos ni la seguridad jurídica116. Así, puede preguntarse: ¿conviene aprobar disposiciones normativas para la acomodación a esta tecnología? "El cambio tecnológico no cambia la regulación a cumplir"117, por aplicación del principio de la inalteración del Derecho preexistente118. Pero ¿hay que cambiarla o adicionarla cuando la tecnología es tan disruptiva, como lo está siendo la IA119?
Antes, lancemos esta otra pregunta: ¿es necesario regular los sistemas de IA? "Un mínimo de regulación es necesario para este tipo de tecnología", en el tenor literal de uno de los miembros del nombrado grupo de expertos de alto nivel en IA, Andrea Renda120. En las palabras del citado experto, resulta necesario "un mínimo de regulación" que no impida su desarrollo121 innovador. Se trata de regular sin inhibir la dinámica tecnológica que supone la IA122. Pero, en todo caso, regular, aunque sea con una regulación mínima, para limitar que esta tecnología cause daños a los derechos y valores fundamentales de los ciudadanos cuando es una IA de alto riesgo. Regular, en suma, para evitar que haya una pérdida de la protección y de la seguridad jurídica123. Regular con limitaciones y salvaguardias normativas cuando la IA sea de alto riesgo y siempre con requisitos de transparencia, sea de alto o bajo riesgo124. Por el establecimiento de unos "requisitos mínimos necesarios para subsanar los riesgos y problemas vinculados a la inteligencia artificial" se ha decantado la denominada Ley de IA europea; en las palabras reflejadas entre los considerandos del Reglamento (UE) 2024/1689, por el que se establecen normas armonizadas en materia de inteligencia artificial.
La regulación mínima conviene que sea una regulación adaptable a un entorno tan cambiante como es el de amplio espectro en el que se despliega esta tecnología disruptiva. La regulación ha de estar preparada para su adaptación no solo a los desarrollos que, con la tecnología, en general, y con la inteligencia artificial, en particular, han llegado, sino a los futuros que estén por llegar125. La rapidez de los desarrollos tecnológicos (atisbados y por atisbar) presenta, no obstante, un panorama arduo para una ágil adaptación por parte del regulador126. La premura de la innovación tecnológica dificulta una respuesta constante y temprana del legislador. A donde primero alcanza la tecnología no es al terreno de la regulación, sino al del mercado, en cualquier sector económico. El regulador debe actuar cuando la tecnología demanda seguridad, como la demanda en el caso de la IA.
El regulador ha actuado en Europa a través de la citada Ley de IA, aprobada por el nombrado Reglamento (UE) 2024/1689, de 13 de junio de 2024 (o Reglamento de IA). En la hipótesis de que esta regulación europea hubiese sido demasiado exigente y excesiva hubiera podido suponer un freno no querido a la innovación tecnológica. La regulación europea recientemente aprobada es, sin embargo, maleable o modulable, permitiendo un ajuste (quizá no tan presto como pudieran pretender los agentes económicos) a una tecnología que está en permanente mutación, como lo está la tecnología de la IA. Cuando las normas jurídicas son capaces de acoplarse a las variaciones constantes de la tecnología con el sostén de los principios comunes, la tarea del regulador es una tarea bien acometida127.
Aun así, quizá la regulación no solo haya de ser revisada, sino reformulada, más en el futuro ¿inminente? que en el presente. Ese Derecho del futuro quizá haya de ser cambiado en la hipótesis de que llegue la implantación y la propagación de los sistemas inteligentes autónomos y autoconscientes; en la autoconciencia del último nivel de la clasificación del profesor de biología integrada y ciencias de la computación de la Universidad de Michigan Arend Hintze. Cuando se emplee la IA en una fase más avanzada de una inteligencia superior (¿superior a la humana?) con una actuación que llegue a ser, en su caso, autónoma e independiente de la programación y la supervisión humanas, el escenario también regulatorio podría llegar a cambiar.
El profesor Veiga Copo -al hablar de los "varios planos y diversas manifestaciones" de la IA- advirtió que lo "más inquietante para un sistema jurídico" será cuando la IA adopte decisiones "por sí misma, de forma autónoma"128 completamente. En ese hipotético supuesto, para el que queda ¿largo? recorrido, ¿quizá no sea suficiente con una evolución, más o menos progresiva, sino con una revolución de la regulación?129
De momento, hasta la fecha, opinamos que por medio de la nueva reglamentación europea se ha alcanzado una óptima adaptación de la regulación a la digitalización basada en la IA, en la búsqueda de un equilibrio entre la innovación y la protección del consumidor. Se hubiera producido, en cambio, un desajuste si la pretensión del regulador europeo hubiese sido regular todos y cada uno de los aspectos afectados o cubiertos por la IA, en tanto esta tecnología se encuentra en un movimiento constante para el que es harto complicado un ajuste continuado130. No hay desajuste, sin embargo, en tanto la reciente reglamentación europea está dotadas de flexibilidad y generalidad. Las reglas flexibles y generales están basadas en la articulación y la definición de unos principios comunes con un enfoque basado en el riesgo, incluyendo reglas distintas y límites regulatorios en función de los riesgos y prohibiendo los "riesgos inaceptables"131; como los prohíbe la nueva Ley de IA de la Unión Europea.
5. ANTE LAS CUESTIONES JURÍDICAS, LOS PRINCIPIOS FUNDAMENTALES DE LA CONTRATACIÓN AUTOMATIZADA
Más allá de la reglamentación de la Unión Europea, interesa una respuesta regulatoria armonizada de ámbito internacional. La internacionalidad de la regulación es la que mejor se corresponde con una tecnología que discurre sin conocer de fronteras territoriales ni jurisdiccionales132.
Por el camino de la armonización internacional para la unificación y la modernización han prosperado -desde el mandato conferido en 2022133- las labores del Grupo de Trabajo IV de la CNUDMI (sobre comercio electrónico) que comenzaron con un "proyecto de disposiciones sobre la contratación automatizada"134 y, en paralelo, con un "proyecto de normas supletorias sobre los contratos de suministro de datos"135. Ambos proyectos cumplían con la finalidad de avanzar a escala internacional, en un avance regulatorio armonizado supranacional. Uno y otro proyecto podían servir, además, como referencia de utilidad también en el territorio europeo, aun cuando en él haya sido aprobada y publicada la Ley de IA. Que "las normas internacionales pueden servir de referencia útil" para la Unión Europea, aunque "la Unión debe dar prioridad a la elaboración de su propia normativa", se comentó en el párrafo 124° de la Resolución del Parlamento europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital136.
Más que el proyecto de las normas supletorias aplicables a los contratos de suministros de datos, aprobadas (en una segunda versión revisada)137 por la CNUDMI, interesa destacar -a los efectos de este estudio- la Ley Modelo de la CNUDMI sobre la Contratación Automatizada, ya publicada en su versión final138.
Aunque no solo para la contratación de seguros, sino para la contratación en cualquier sector económico, alude "a la utilización de sistemas automatizados para formar o ejecutar contratos" el artículo 2.1 de la citada Ley Modelo, cuando describe su ámbito de aplicación. Será aplicable la nombrada Ley Modelo cuando se haga uso de los sistemas automatizados (también cuando incluyan sistemas de IA) en una acción para la formación de los contratos, como la oferta o la aceptación139; o en una para la ejecución de los contratos, "como su modificación o resolución"140. También será de aplicación para el incumplimiento o las vías para el recurso.
Cuando de esos sistemas automatizados (pudiendo incluir sistemas de IA) se haga uso para la formación o la ejecución de los contratos (también de seguros), estaremos ante la denominada contratación automatizada o, si se prefiere otra expresión, contratación algorítmica. Una y otra denominación son empleadas en el Proyecto de Guía para la incorporación al Derecho interno de la Ley Modelo sobre Contratación Automatizada. Ambas denominaciones las recoge el apartado II.A.4.a) de la versión revisada aprobada, el 23 de septiembre de 2024, en el 67° período de sesiones de su Grupo de Trabajo IV de la CNUDMI141.
"La contratación automatizada es […] una forma de contratación electrónica", según señala este Proyecto de Guía142. Pero, aunque la contratación automatizada sea una "contratación electrónica con un grado reducido de intervención humana"143, no se trata simplemente de eso. Advierte este Proyecto de Guía144 que si se hace una simple identificación entre la contratación automatizada y la contratación electrónica con una mínima intervención del ser humano se corre el riesgo de obviar la aparición de posibles obstáculos si se aplicase la legislación aplicable a la contratación electrónica (como la Ley Modelo de la CNUDMI sobre Comercio Electrónico, de 12 de junio de 1996) sin atender a la mayor autonomía que caracteriza a los contratos automatizados cuando emplean técnicas de IA, respecto de los simples contratos electrónicos.
Ejemplos del empleo de esas técnicas de IA para llevar a cabo acciones contractuales automatizadas serían, para la ejecución, los contratos inteligentes (o, si se prefiere la expresión usual en inglés, los smart contracts) o, para la negociación (incluida en el concepto de "formación")145, los chatbots interactivos; como ejemplos que resalta el reseñado Proyecto de Guía146.
Se reconocen jurídicamente esas u otras acciones contractuales de formación (o ejecución, en el caso de que un Estado que incorpore a su Derecho interno esta Ley Modelo quiera extenderlo a la ejecución)147 de un contrato que hayan sido efectuadas por sistemas automatizados. Se reconocen efectos jurídicos, validez y fuerza obligatoria, incluso, aun cuando no hubiese intervenido ninguna persona física, y ninguna lo hubiese revisado ni supervisado. Así es por mor del artículo 5 de la Ley Modelo que trata del "reconocimiento jurídico de la contratación automatizada". De este modo, podrá otorgarse reconocimiento jurídico, por ejemplo, "al rechazo de una reclamación presentada en virtud de un contrato de seguro", en el ejemplo que nombra148 el Proyecto de Guía para la incorporación al Derecho interno de dicha Ley Modelo.
También habrá un reconocimiento jurídico del contrato (sea un contrato de seguro o no lo sea) aun cuando las condiciones contractuales se expresen en un código informático, siendo susceptibles de ejecución automatizada o autoejecución; lo que nos lleva a pensar en los smart contracts. Conservarán igualmente la validez y la fuerza obligatoria aun cuando los contratos hagan uso de información dinámica, en un dinamismo informativo cambiante periódica o continuamente. Esto es, pese a que las condiciones contractuales incorporen información cambiante no por este solo hecho se le negará validez ni fuerza obligatoria. Tampoco la perderán las acciones contractuales relativas a la formación (¿y la ejecución?)149 del contrato que sean realizadas sobre la base de esa información dinámica; de acuerdo con el artículo 6, en sus tres párrafos.
5.1. Con neutralidad tecnológica
El uso de los sistemas automatizados (con IA o sin ella) para la formación o la ejecución (en alguna o en varias etapas)150 de los contratos requiere una serie de principios (algunos nuevos, otros conocidos)151 sobre el reconocimiento jurídico de estos contratos negociados, formados o ejecutados empleando tales sistemas. Los principios fundamentales los enumera la nueva Ley Modelo152 y los recoge y explica el Proyecto de Guía para la incorporación al Derecho interno de esa Ley Modelo153.
El primer principio (recogido y reconocido) es el de la neutralidad tecnológica154. Ni la Ley Modelo ni el resto de leyes deben obligar a utilizar un sistema automatizado para la formación o la ejecución de los contratos. Ni obligar ni favorecer, por medio de la ley, ni esta ni otras tecnologías es la esencia de este principio de neutralidad. Además de ser la ley neutral, en términos tecnológicos, ha de no discriminar.
5.2. Sin discriminación tecnológica
El principio de no discriminación es el segundo de los principios fundamentales acogidos. Busca que no exista un tratamiento ni unos requisitos jurídicos distintos por el hecho de que el contrato se haya formado o ejecutado con intervención humana, con una mínima intervención humana o sin intervención humana155. En vez de por dos regímenes jurídicos distintos, en función de si en la contratación se hace uso o no de un sistema de automatización, se aboga por un tratamiento jurídico único, en virtud de este principio de no discriminación.
5.3. Sin equivalencia funcional
Con neutralidad y sin discriminación ha de actuar la legislación. Sin equivalencia funcional, también. El tradicional principio de equivalencia funcional no es acogido, esta vez, por esta Ley Modelo156. No contiene un enfoque de equivalencia funcional, en tanto no siempre halla un equivalente funcional claro la contratación automatizada respecto de la clásica contratación llevada a cabo sin utilizar un sistema automatizado157. No siempre puede encontrarse un equivalente físico en la contratación personal y en papel158.
5.4. Con Autonomía De la voluntad
Con neutralidad tecnológica, sin discriminación en la regulación, sin equivalencia funcional, y siempre con autonomía de la voluntad. El último de los principios (acogido y alzado en alto) es el principio rey en la contratación privada, esto es, el principio de la libre autonomía de la voluntad de las partes. Libertad de las partes contratantes, en primer lugar, para decidir hacer uso o no de un sistema automatizado (y, en su caso, con IA o sin ella). Libre autonomía, en segundo lugar, para regular mediante un acuerdo entre las partes el uso que, en su caso, se haga del sistema automatizado.
El principio de la libre autonomía encuentra, en el ámbito de la contratación automatizada, idéntico límite al que encuentra en la contratación no automatizada: el respeto a las normas jurídicas que sean imperativas159. Como el primero de los principios fundamentales enunciados (esto es, el de neutralidad tecnológica), este otro principio, de la autonomía de las partes contractuales, se desprende del artículo 4 de la Ley Modelo160. Si el primero de ellos rubrica este precepto, este último se desprende de su literalidad: "Nada de lo dispuesto en la presente Ley [Modelo] obligará a utilizar un sistema automatizado ni a emplear un método determinado en sistemas automatizados para formar o ejecutar contratos".
Bajo los anunciados principios fundamentales, la Ley Modelo sobre Contratación Automatizada pretende ser aplicable junto con las leyes que rijan la contratación electrónica, en tanto -se recuerda- "la contratación automatizada es […] una forma de contratación electrónica"161, aunque no sea simplemente una contratación electrónica sin (o apenas sin) intervención humana. Junto con esas leyes, la Ley Modelo será aplicable a los contratos automatizados con independencia del tipo de contratos de que se trate.
En atención a lo anterior, se aplicará en contratos entre empresarios y en contratos con consumidores. También será aplicable entre un sistema automatizado y un ser humano o entre sistemas automatizados sin seres humanos162. Es decir, tanto en un contrato unilateralmente automatizado como en uno doblemente automatizado. En particular, será de aplicación a los contratos con consumidores y, en especial, a los contratos de instrumentos financieros; como ejemplos en los que puede ser más habitual la automatización en la contratación, citados en el Proyecto de Guía163 ante el silencio de la Ley Modelo.
Si para estos o para otros contratos en los que se haga uso (en parte o en todo el ciclo de vida contractual) de un sistema automatizado (por una de las partes contratantes o por ambas) se advirtiera alguna laguna en la Ley Modelo, habría de ser colmada con los principios fundamentales que sostienen su base. Para rellenar las lagunas -y sin perjuicio de los principios generales de neutralidad tecnológica, no discriminación y libre autonomía- podrían añadirse otros principios; en el listado ejemplificativo que enumera el Proyecto de Guía164. Primero, el de la facilitación del comercio electrónico; segundo, el del aumento de la previsibilidad comercial y la seguridad jurídica; y, tercero, el de eliminación de los impedimentos al comercio digital. Con aquellos principios fundamentales o generales y estos otros principios adicionales puede interpretarse cualquier laguna que pueda haber en cualquier disposición de esta Ley Modelo.
Una disposición específica hay, en el artículo 7, para la atribución de la acción. Cuando la acción se lleva a cabo por un sistema automatizado puede resultar complicado dilucidar la atribución de esa acción a una o a varias personas, en tanto no puede atribuirse al propio sistema al no tener en el presente (¿y en el futuro?) ni voluntad, ni autoconsciencia ni personalidad propia165.
Recordemos que provocó un firme rechazo a un buen número de especialistas de distintas áreas científicas conferir personalidad electrónica a los sistemas robotizados166. La razón principal fue que, si la responsabilidad es asumida por las máquinas, la responsabilidad es eludida por las personas167. El grupo independiente de expertos de alto nivel en IA -en su informe Liability for artificial intelligence and other emerging digital technologies, del mes de abril de 2019- no vio la necesidad de otorgar personalidad legal a los sistemas autónomos168. No entendió el otorgamiento de la personalidad electrónica como una solución para la atribución y la responsabilidad.
En la controversia entre personalidad electrónica sí (por la que se decantó el Parlamento europeo en una primera Resolución de 16 de febrero de 2017)169 o personalidad electrónica no (por la que se decantó buena parte de la doctrina científica), se posicionó el grupo independiente de expertos de alto nivel en este último sentido. Entendió que no era conveniente crear una nueva categoría de personalidad: la de la persona electrónica170, por cuanto conllevaría un aumento de los problemas y las cuestiones relacionadas con la ética171. No solo la ética entraría en juego, sino que, además, lo harían las cuestiones económicas y patrimoniales. Los problemas legales aparecerían de inmediato, tanto en relación con su capacidad legal como con la posibilidad de realizar transacciones económicas en el mercado172. Concordamos en que conferir esa personalidad electrónica o robótica podría derivar en un sinfín de cuestiones y dudas éticas y legales de muy difícil solución. Reiteramos que, sin tener los sistemas automatizados personalidad propia ni voluntad ni consciencia independiente, sus resultados han de ser atribuidos a las personas173 (físicas o jurídicas).
De regreso a la lectura de la Ley Modelo, hay que ensalzar que pone en alto el principio de la libre autonomía de la voluntad de las partes en su artículo 7.1. Lo ensalza respecto de las cuestiones en torno a la atribución de las acciones que efectúen los sistemas automatizados. Con la supremacía de este clásico principio del Derecho contractual, este séptimo precepto manifiesta que las cuestiones sobre la atribución de las acciones de esos sistemas se dilucidarán conforme al procedimiento (como término amplio que abarca a los métodos)174 que las partes contratantes hubieran acordado, en su caso175.
Si nada se hubiera acordado respecto del procedimiento y si ni siquiera hubiera un contrato176, de manera subsidiaria, la atribución recaerá sobre la persona que hubiese utilizado el sistema automatizado "con ese fin"177, esto es, con el "fin de realizar una acción"178. Esta norma subsidiaria tiene como intención atribuir la acción a quien guarde unos lazos más estrechos con la acción. Harto complicado puede resultar, sin embargo, en la práctica determinar quién está más vinculado con la acción. Para intentar rebajar el nivel de complicación, el Proyecto de Guía explica179 que la atribución ha de determinarse de manera objetiva examinando todas las circunstancias que rodean al caso. Además, ofrece algunos factores que pueden ayudar a identificar a la persona a quién atribuir la acción. En concreto, ofrece los cinco siguientes factores: primero, quien despliegue el sistema automatizado; segundo, el control de los parámetros del funcionamiento y la acción; tercero, el beneficio derivado de la acción; cuarto, el objeto y la naturaleza del contrato, y, quinto, los usos comerciales y las prácticas de las partes contratantes180. Estos factores pueden ser útiles para tratar de averiguar en muchos casos quién es la persona más vinculada con la acción, aunque mucho tememos que no puedan ser concluyentes en todos los casos.
La atribución no es igual a la responsabilidad. De conformidad con el artículo 7, las reglas son sobre la atribución de las acciones que han sido efectuadas por parte de los sistemas automatizados, pero no son reglas referidas a la asignación de la responsabilidad por los resultados de esos sistemas181. Cuando los resultados sean imprevistos es el precepto siguiente de la Ley Modelo el aplicable. Se prevé que los resultados puedan ser imprevistos o involuntarios, más cuanto más avanzados sean los sistemas automatizados que conlleven técnicas de IA. Cuanto más avanza en autonomía la IA, más se extiende la imprevisibilidad o involuntariedad182.
Cuando surge un resultado imprevisible, da igual que sea por derivar de un sistema automatizado con IA o por resultar de un error de programación o de transmisión183, se aplica el artículo 8. Como su precedente, ensalza el principio de la libertad de autonomía para determinar las reglas acerca de la distribución de los riesgos en casos de resultados imprevistos184. Solo de manera supletoria, esto es, si nada se hubiera acordado en contrario, se aplicaría el principio de que quien usa un sistema automatizado asume el riesgo de los resultados (aun imprevistos) de ese sistema. Pero explica bien el Proyecto de Guía para la incorporación de la Ley Modelo al Derecho interno que este principio se atenúa en caso de razonable imprevisibilidad.
El sentido en el que se matiza es el siguiente: si la parte contratante a quien se atribuye la acción imprevista no podía razonablemente prever esa acción imprevista, la otra parte contratante "no tendrá derecho a basarse en esa acción". Tampoco tendrá ese derecho si conocía o razonablemente podía conocer que la otra parte no había podido prever el resultado imprevisto. La razonabilidad de la imprevisión o, de otro modo dicho, la imprevisión razonable es la matización incorporada en el artículo 8.1 de la Ley Modelo a aquel principio de que quien usa el sistema asume el riesgo del sistema. Así sería, salvo que las partes contratantes hubiesen llegado a otro acuerdo o salvo que lo dispuesto en el apartado primero de este artículo 8 afectase a la aplicación de una norma de Derecho interno que esté vigente respecto a los resultados imprevistos, conforme declara el apartado segundo. Apunta el Proyecto de Guía que este segundo apartado deja intactas (sin tocar) las normas de anulación de un contrato por error o de exoneración de la responsabilidad por fuerza mayor185.
Queda por incluir una advertencia final respecto de este artículo 8. Es la que sigue: aun cuando se refiera este artículo expresamente a la asignación de la responsabilidad por los resultados imprevistos o involuntarios de los sistemas automatizados entre las partes contratantes, es aplicable no solo en el caso de la celebración de un contrato (a lo largo de la vida del contrato), sino también en la fase previa a la celebración del contrato, a lo largo de la formación de ese contrato186. Podría ser aplicable a la fase de la negociación contractual cuando se empleen los robo-advisors o los chatbots para la atención y la información, la asesoría o la recomendación previas al contrato.
5.5. Con información y sin anulación
Sea en la etapa anterior a la celebración del contrato, sea en cualquiera de las etapas del ciclo de vida del contrato celebrado, o sea "más allá del entorno contractual"187, existe la obligación de revelación del uso, el diseño o el funcionamiento del sistema automatizado188. Información, por ejemplo, sobre el hecho de que se usa un sistema automatizado, sobre quién lo despliega, sobre cómo funciona o sobre el hecho de que no funciona, cuando no funcione189. Información para la transparencia. Información, además, para la explicabilidad y la rastreabilidad.
Además de la información, la no anulación. Así se rubrica el último de los artículos (el número diez) de la Ley Modelo en estudio. En virtud del principio de no discriminación, la no anulación. Su significado es el siguiente: las partes contratantes no quedarán eximidas de las consecuencias jurídicas del incumplimiento de la ley aplicable por el hecho de hacer uso de un sistema automatizado. En efecto, la automatización del sistema usado no puede servir para eludir las consecuencias jurídicas del incumplimiento.
Con los aludidos principios fundamentales y principios generales, la Ley Modelo de UNCITRAL bien puede (y conviene) incorporarse en los ordenamientos jurídicos internos de los distintos países. Podrán ayudarse para esa incorporación por el Proyecto de Guía comentado. Y mientras no se incorpore esta Ley Modelo sobre Contratación Automatizada a los distintos Derechos internos, que sirva para la interpretación de los cada vez más habituales contratos automatizados en cualquier sector económico, también en el sector asegurador.
CONCLUSIÓN
El uso en el mercado asegurador de los sistemas automatizados es susceptible de provocar múltiples ventajas, pero también variados riesgos; como algunas de ellas y de ellos han sido apuntados a lo largo de las páginas precedentes de este trabajo de investigación que ahora concluye. Entre las ventajas, acentuamos ahora la reducción de los costes de transacción y el aumento de la eficiencia para las aseguradoras por la simplicidad y la agilidad en las tareas190. Para la otra parte contratante, destacamos la accesibilidad mediante plataformas en línea o dispositivos electrónicos disponibles a cualquier hora del día, cada día. Aparte de una continuada accesibilidad, enfatizamos la personalización de los productos de seguros y el mejor ajuste de las primas aplicadas a cada cliente de seguros. Esta personalización pudiera contribuir a lo que antes denominábamos la inclusión aseguradora, por concreción del conocido término de la inclusión financiera.
Al otro lado de la balanza, entre los riesgos, conviene subrayar la posible desprotección de los datos personales por filtración o pérdida, en tanto a través del aprendizaje automático y del enfoque "basado en reglas y condiciones preestablecidas" se recopilan y analizan ingentes cantidades de datos en el campo del seguro191. También apuntamos los sesgos en los datos recopilados192 o los sesgos en el modelo algorítmico193.
Algunos sesgos podrán ser corregidos, pero otros pasarán desapercibidos194. Ante unos u otros riesgos, y ante los potenciales perjuicios que a los usuarios pueda generar la actividad de seguros que sea desarrollada a través de la tecnología automatizada, en general, y de la tecnología automatizada dotada de IA, en particular, la industria aseguradora debe dar respuesta. Mediante el correspondiente control y supervisión, habrá de prevenir y asegurar aquellos riesgos de los que puedan derivar unos potenciales daños a los usuarios195; más aún cuando puedan llegar a desencadenar situaciones de discriminación susceptibles de derivar en la exclusión aseguradora por el no aseguramiento o por el aseguramiento a muy elevados precios196.
Ha de desarrollarse el uso de los sistemas automatizados en las compañías aseguradoras de una manera fiable y responsable, basada en la transparencia, en la protección y en la no discriminación del usuario. Las entidades de seguros han de seguir manteniendo e, incluso, acrecentando el cuidado en la protección y el tratamiento de los datos personales. También han de poner un especial cuidado en la adopción y el reforzamiento de las medidas precisas para la vigilancia humana del servicio197 ofrecido por medio de los sistemas automatizados, sobre todo, cuando están dotados de algoritmos avanzados y, en todo caso, cuando se hace uso de soluciones de IA.
Resulta oportuno aprovechar las innumerables e indudables ventajas de la automatización, pero con unas adecuadas medidas de prevención de sus múltiples riesgos. Como apuntó el profesor Girgado Perandones198, no resulta viable ignorar las potenciales consecuencias negativas que estas tecnologías automatizadas y asociadas a la IA pueden provocar tanto para los operadores económicos como para los consumidores.
Cuando los sistemas automatizados se emplean en la contratación de seguros, no solo para su ejecución, sino también para su formación y negociación (con herramientas de negociación automatizada, como son los chatbots o los robo-advisors), los principios fundamentales, anudados a los principios generales, derivados de la Ley Modelo de UNCITRAL sobre la contratación automatizada pueden ser la clave para una correcta interpretación contractual.
Con autonomía de la voluntad de las partes, con neutralidad tecnológica y sin discriminación contra el uso de los sistemas automatizados, pueden afrontarse las reticencias y los obstáculos jurídicos que la automatización en la contratación (también de seguros) puede conllevar. Para no empañar el papel innovador que la automatización está llamada a desempeñar en el mercado asegurador (como en tantos otros mercados) ha de garantizarse su uso sin desprotección ni discriminación del usuario y con una adecuada información adicional para el refuerzo de la transparencia.
En los principios básicos del contrato de seguro, como son la transparencia, de un lado, y la protección de la clientela, de otro, habrá de seguir basándose tanto la actividad (cada vez, más automatizada) del negocio asegurador como la legislación que la regula199. Esos principios básicos -siempre aplicables- pueden ser complementados con aquellos principios fundamentales y generales que ensalza la Ley Modelo de UNCITRAL sobre la contratación automatizada, que en las páginas previas ha sido examinada. Juntos, unos y otros principios pueden servir de base para la correcta interpretación de la contratación en un mercado automatizado.
En un proceso imparable, de la contratación analógica se avanzó a la contratación electrónica y de esta va avanzándose de forma imparable a la contratación automatizada. Como explica y define el Proyecto de Guía para la incorporación al Derecho interno de la Ley Modelo200 -y como queremos reiterar para enfatizar-, "la contratación automatizada puede considerarse una forma de contratación electrónica con un grado reducido de intervención humana". Pero "considerar que la contratación automatizada es simplemente una forma de contratación electrónica con un grado reducido de intervención humana entraña el riesgo de pasar por alto posibles obstáculos", fundamentalmente cuando se hace uso de "sistemas de IA que operan en un entorno dinámico con un mayor nivel de "autonomía" para realizar acciones contractuales"201; como advierte este Proyecto de Guía; según habíamos tenido antes ocasión de indicar y ahora de ensalzar.
Para las acciones contractuales realizadas por los sistemas automatizados y, en particular, por los sistemas que hacen uso de una IA con un nivel de autonomía progresivamente creciente, sirven aquellos principios fundamentales, anudados a los principios generales, y acompañados en el terreno contractual de seguros con los principios de la información, para la transparencia, y de la protección de los usuarios. Sirven todos ellos como sustento de un nuevo Derecho de contrato de seguros que en una publicación previa de nuestra autoría nos atrevimos a denominar como un Derecho de seguros 4.0202 para su aplicación a la Industria 4.0. En esta otra publicación que ahora se cierra, quizá debiéramos avanzar un número más. Quizá debiéramos hablar de la necesidad de un Derecho de seguros 5.0 para su aplicación a la Industria 5.0. Si la primera de las expresiones (esto es, el Derecho de seguros 5.0) es propia nuestra inventada, la segunda de las expresiones utilizadas (es decir, la Industria 5.0) fue acuñada por la Comisión europea en enero de 2021203. Se trata de una expresión que no tiene la pretensión de sustituir a aquella otra anterior, es decir, la de la Industria 4.0, sino que pretende complementarla y mejorarla. Con esta pretensión de complementariedad para la mejora, la Industria 5.0 se apoya, además de en la sostenibilidad y la resiliencia, en el protagonismo de la persona, en una visión humano-centrista (o human centric).
Con una visión centrada en el ser humano, en las relaciones (contractuales) entre las personas (contratantes) y los sistemas automatizados (utilizados para la contratación de seguros), quisiéramos echar el cierre a esta investigación sin poner un punto final, sino un punto y seguido. No se vislumbra un final para la automatización.
NOTAS
2 Así comenzaba la carta de bienvenida del "Informe sobre la digitalización de la industria aseguradora. Análisis y reflexión de los obstáculos y propuestas de mejora en el sector asegurador", de marzo de 2023, firmado por la presidencia de UNESPA y AEFI: "Las empresas de la industria aseguradora no han parado de evolucionar, apostando por la innovación y la digitalización". En igual sentido, se manifestó el cuaderno número treinta y seis de INESE titulado: "Iniciativas digitales de las aseguradoras 2023", concretándolo en el auge de la inteligencia artificial en el período evaluado de enero a diciembre de 2023. No obstante, en la página 8 del informe de MAPFRE sobre la inteligencia artificial responsable, de junio de 2023, se cifró el bajo grado de la inteligencia artificial en las compañías aseguradoras no nativas digitales, bien que se estimó que había un enorme potencial futuro de esta tecnología.
3 Vid. AEFI, UNESPA, Informe sobre la digitalización de la industria aseguradora…, op. cit., 16.
4 Según plasmamos en una anterior publicación conjunta, de la que se extraen varias de las reflexiones de este epígrafe: Marta García Mandaloniz, Fernando Javier Ravelo Guillén, "Empresas de tecnología e innovación en el sector asegurador. En transformación y en tránsito con las empresas InsurTech", Revista Española de Seguros. Publicación doctrinal de Derecho y Economía de los Seguros privados, 191 (2022): 469. También fue publicado este trabajo conjunto, bajo el mismo título, en: Derecho de seguros y tecnología, dir. por Félix Benito Osma, (Madrid: Editorial Española de Seguros, Cuaderno SEAIDA, 2023), 23-64
5 Un camino, el de la digitalización del sector asegurador, que "no tiene ya retorno", acertaría a señalar María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros: impacto de la IA en la suscripción del contrato", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 200 (octubre-diciembre 2024: 724.
6 Vid. AEFI, UNESPA, Informe sobre la digitalización de la industria aseguradora…, op. cit., 15.
7 Ibídem, p. 14.
8 Ídem. También véase: A. Pérez Moriones, "Contrato de seguro e inteligencia artificial: el inexcusable replanteamiento de la posición del asegurado", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, pp. 197-198 (enero-junio 2024): 317. De "auténtica revolución", producida por la inteligencia artificial en el sector de los seguros, habló: Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial en el diseño, distribución y comercialización del contrato de seguro", en Digitalización, inteligencia artificial y Derecho mercantil, dir. por R. López Ortega, M. Pacheco Cañete, (Madrid: Aranzadi, 2024), 491. En cambio, María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., 723, aludió a un proceso de digitalización "natural, acorde con lo que ocurre en todos los sectores y mercados". Léase, además: Autores varios, "Robo-advisors e InsurTech. Automatización de soluciones de seguro para los consumidores", Faster Capital, 17 diciembre 2023.
9 La digitalización afecta al "negocio asegurador en sí mismo" y "al proceso de la contratación" de seguros, especificó: María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., p. 724.
10 De nuevo, véase: AA.VV., "Robo-advisors e InsurTech…", op. cit.
11 En ídem se nombran como ventajas de la automatización la rapidez y la eficiencia, la rentabilidad, la accesibilidad y la personalización. Así mismo, en: Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., 491-497.
12 Por ejemplo, véase: Joaquín Alarcón Fidalgo, "La inteligencia artificial: retos para la responsabilidad civil y el seguro", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 201 (enero-marzo 2025), p. 58.
13 En la expresión empleada, a estos efectos, en: Autores varios, "Robo-advisors e InsurTech…", op. cit.
14 El deber precontractual del tomador del seguro de declarar las circunstancias que puedan influir en la valoración del riesgo, respondiendo al cuestionario que, en su caso, se le someta, se rige en el ordenamiento jurídico español por el artículo 10 (en concordancia con los artículos 89 y 90) de la Ley 50/1980, de 5 de octubre, de Contrato de Seguro (Boletín Oficial del Estado o BOE número 250, 17 octubre 1980).
15 Vid. EIOPA, Big data analytics in motor and health insurance: a thematic review, (Luxembourg, Publications Office of the European Union, 2019): pp. 8 y ss.; consultado el 28 de febrero de 2025, https://register.eiopa.europa.eu/Publications/EIOPA_BigDataAnalytics_ThematicReview_April2019.pdf Así mismo, vid., ad ex., María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., 730, quien añadió la referencia a "la cesión o compra de datos procedentes de otros operadores del mercado". También añadió la compra de datos, como mecanismo "transcendente para la futura póliza", Joaquín Alarcón Fidalgo, "La inteligencia artificial…", op. cit., p. 58.
16 Ídem.
17 "Como personas con afecciones médicas preexistentes" en el ejemplo citado en: Autores varios, "Robo-advisors e InsurTech…", op. cit.
18 En el papel que cumple la tecnología para el desarrollo de los microseguros para la inclusión financiera aseguradora se centró el siguiente estudio: MAPFRE ECONOMICS, Inclusión financiera en seguros. Microseguros para la inclusión (Madrid, Mapfre Economics, junio 2020), pp. 20-22.
19 Como bien se ha sostenido y analizado en: A. Pérez Moriones, "Contrato de seguro e inteligencia artificial…" op. cit., pp. 317 y ss., donde (en la página 318) se concluye que "La disponibilidad por el asegurador de datos masivos y actualizados conduce a una situación de desequilibrio en la posición legal del asegurado".
20 Acerca de la "asimetría digital" que puede provocar "vulnerabilidad digital", léase el siguiente excelente estudio: Jorge Feliú Rey, "La personalización automatizada y el principio de buena fe (uberrimae bonae fidei) en el contrato de seguro", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, números 197-198 (enero-junio 2024), pp. 263-267. De manera sucinta y acertada María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., 731, comentó que "el seguro es mayoritariamente un contrato de adhesión" y "ahora [con la IA] se posee una mayor información del asegurado, haciéndolo quizá más vulnerable a posibles abusos".
21 Vid. A. Pérez Moriones, "Contrato de seguro e inteligencia artificial…", op. cit., p. 318.
22 Así se comentó, en relación con las nuevas empresas InsurTech, en: Autores varios, "Robo-advisors e InsurTech…", op. cit.
23 Ídem.
24 Ídem. Así mismo, Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., pp. 497-500.
25 También en: Autores varios, "Startups de InsurTech: acortando la brecha entre tecnología y seguros", Faster Capital, 17 diciembre 2023.
26 Que "la automatización en la industria de seguros ha aumentado desde hace algún tiempo" o que "la industria de seguros no es inmune a la ola de la automatización" se resaltó en: Autores varios, "Robo-advisors e InsurTech…", op. cit. Un reciente estudio doctrinal jurídico que así lo pone de relieve y analiza es: Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., 481-515.
27 Véase supra la nota a pie de página número 9.
28 Aunque no solo para la contratación de seguros, sino para la contratación en cualquier sector económico, aludió al "uso de sistemas automatizados en la contratación", como primer principio, el "proyecto de principios sobre la contratación automatizada" de la United Nations Commission on International Trade Law (UNCITRAL), en la página 4, párrafo 14 (A/CN.9/WG.IV/WP.182).
29 Léase: Autores varios, "Robo-advisors e InsurTech…", op. cit.
30 Ídem.
31 Así consta en: Jorge De Andrés-Sánchez, Jaume Gené-Albesa, "Evaluación de los robots conversacionales en la comunicación asegurado-asegurador por profesionales del mercado español con un modelo de aceptación tecnológica", Anales del Instituto de Actuarios Españoles, 29, 2023, pp. 111-135.
32 M. Huete, "Los roboadvisors. Situación y perspectivas", Martinhuete.com, 19 septiembre 2021, indicó que esta es "una de las críticas más recurrentes a estos modelos de negocios" basados en los robo-advisors.
33 Vid., ad ex., L. de la Peña, F. Cholvi, J. C. Ruiz, "Roboadvisors: ¿qué son y qué ventajas aportan frente al asesoramiento tradicional?", Garrigues Digital - Innovación legal en la economía 4.0, 18 mayo 2021.
34 Vid. Pablo Sanz Bayón, "La automatización y robotización de los servicios de asesoramiento financiero e inversión: oportunidades y desafíos regulatorios", en Fintech, Regtech y Legaltech: Fundamentos, implicaciones y desafíos regulatorios, dir. por N. Remolina (Valencia: Tirant Lo Blanch, 24 febrero 2020), pp. 323-356.
35 Vid. Marta García Mandaloniz, Fernando Javier Ravelo Guillén, "Empresas de tecnología e innovación…", op. cit.
36 Vid. Abel B. Veiga Copo, "¿Hasta dónde transformará el seguro el "InsurTech"? Cinco Días, 1 septiembre 2020.
37 Así lo enfatizó: Rebeca Herrero Morant, "Aspectos jurídicos del uso de la inteligencia artificial por los robo-advisors", Revista de Derecho del Mercado de Valores, 30 (enero-junio 2022).
38 Sobre este regreso al "modelo mixto" en el mercado financiero, puede leerse: M. Huete, "Los roboadvisors…", op. cit.
39 Vid. Pablo Sanz Bayón, "La automatización y robotización…", op. cit.
40 Diario Oficial de la Unión Europea (DOUE) L número 2673, 28 noviembre 2023, pp. 1-21 (DOUE-L-2023-81696).
41 DOUE L número 304, de 22 de noviembre de 2011, páginas 64-8 8 (DOUE-L-2011-82312).
42 Artículo 1, apartado 4° de la Directiva (UE) 2023/2673, por la que se incluye un nuevo capítulo III bis en la Directiva 2011/83/UE titulado: "Normas relativas a los contratos de servicios financieros celebrados a distancia".
43 Artículo 16 quinquies.
44 En el tenor literal del apartado tercero del artículo 16 quinquies.
45 Boletín Oficial de las Cortes Generales. Congreso de los Diputados. Serie A: Proyecto de Ley, 10 junio 2022, número 104-1, 25 páginas (121/000104). Informe de la Ponencia de 24 de abril de 2023, 29 páginas.
46 Boletín Oficial de las Cortes Generales. Congreso de los Diputados. Serie A: Proyecto de Ley, 8 marzo 2024, número 12-1, 29 páginas (121/000012). En fase de ampliación de enmiendas en la Comisión de Derechos Sociales y de Consumo.
47 Artículo 2.1.f). Esta ley, no obstante, resulta de aplicación supletoria de la normativa sectorial de los servicios financieros, según el artículo 2.5.
48 Exposición de motivos del proyecto de ley.
49 En la rúbrica del artículo 8.
50 Artículo 8.2°.
51 Artículo 8.3°.
52 DOUE L 1689, de 12 de julio de 2024, pp. 1-144 (DOUE-L-2024-81079).
53 Se comentó en: Autores varios, "Robo-advisors e InsurTech….", op. cit., que los chatbots "son otra tendencia de automatización que está ganando tracción en la industria de seguros".
54 Vid. Jorge de Andrés-Sánchez, Jaume Gené-Albesa, "Evaluación de los robots conversacionales…", op. cit.
55 Vid. Pablo Sanz Bayón, "La automatización y robotización…", op. cit.
56 Vid. Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., p. 501.
57 Vid. D. Cano Martínez, "Transformación de canales de intermediación del ahorro. El papel de las fintech. Una especial consideración a los robo-advisors", Fundación Caixa d'Enginyers, Nota Técnica, 37 (noviembre 2018): 5 y 7; M. Huete, "Los roboadvisors…", op. cit.
58 Así, por ejemplo: J. Mercader, "¿Qué es un robo advisor?", Inbestme, 22 noviembre 2022, L. de la Peña, F. Cholvi, J. C. Ruiz, "Roboadvisors…", op. cit. También, Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., pp. 493-494.
59 Una sucinta descripción de los tipos de chatbots, puede hallar el interesado, por ejemplo, en: B. Church, "5 tipos de chatbot y cómo elegir el adecuado para su negocio", IBM, 5 septiembre 2023.
60 El estudio al que nos referimos es: Jorge De Andrés-Sánchez, Jaume Gené-Albesa, "Evaluación de los robots conversacionales…", op. cit.
61 Ídem.
62 Ídem.
63 Ídem.
64 Vid. María Jesús Peñas Moyano, "Obligaciones generales de información", en La distribución de seguros privados, dir. por Juan Bataller Grau, María del Rocío Quintáns Eiras (Madrid: Marcial Pons, 2019), 83 y nota a pie de página número 7.
65 Ídem.
66 M. Huete, "Los roboadvisors…", op. cit., comentó que, conforme a un informe de BlackRock, "los reguladores deben hacer énfasis", entre otras cuestiones, en la "vigilancia y la revisión de los algoritmos utilizados". También léase: Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., p. 508.
67 A tales errores aludió la Nota de la Secretaría de la UNCITRAL en el documento titulado: "Cuestiones jurídicas relacionadas con la economía digital: propuesta de labor legislativa relativa a las operaciones electrónicas y el uso de la inteligencia artificial y la automatización", de 5 de mayo de 2021, p. 7, párrafo 26.c).
68 Ídem, donde se expresó que igualmente "los reguladores deben hacer énfasis" en la "transparencia del coste y explicación clara y sencilla de los servicios".
69 Vid. L. de la Peña, F. Cholvi, J. C. Ruiz, "Roboadvisors…", op. cit.
70 Página 4.
71 Párrafo 139. Resolución 2020/2266 (INI) (P9_TA (2022) 0140).
72 En España, es el artículo 64.4.d) del Estatuto de los Trabajadores el que alude a tal derecho colectivo del que goza el comité de empresa, como órgano de representación de los empleados.
73 Reglamento (UE) 2016/679, del Parlamento europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (DOUE L 119, 4 mayo 2016).
74 De acuerdo con los artículos 13.2 y 14.2 del RGPD.
75 Letra a) del artículo 22.2 del RGPD.
76 Artículo 22.2.b) del RGPD.
77 Letra c) del citado artículo 22.2.
78 De conformidad con el apartado tercero del artículo 22 del RGPD.
79 Así se dispone en la página 45 y, en concreto, en el párrafo 131 del citado documento; consultado el 28 de febrero de 2025, https://www.algoritmolegal.com/wp-content/uploads/2021/06/Informe-G-Expertos-IA-fiable-junio-2018.pdf
80 Tomamos la expresión literal recogida en: Joaquín Alarcón Fidalgo, "La inteligencia artificial…", op. cit., p. 59.
81 Ídem.
82 En la expresión reflejada en: ídem.
83 Ídem.
84 Vid. María Jesús Peñas Moyano, "Obligaciones generales de información…", op. cit., p. 83.
85 Vid. M. Huete, "Los roboadvisors…", op. cit.
86 Ídem, donde, en relación con "el auge de los robo-advisors" en el mercado financiero, en general, se citó la "ausencia de conflictos de interés". El motivo es que "son carteras que no se rotan y donde exclusivamente se cobra del inversor y no de los gestores cuyos fondos se incorporan".
87 L. de la Peña, F. Cholvi, J. C. Ruiz, "Roboadvisors…", op. cit., destacaron, entre las ventajas de los robo-advisors, la "evitación de sesgos emocionales, al estar los inversores controlados mediante diferentes algoritmos".
88 Vid. Alberto Javier Tapia Hermida, "Las tecnologías (FINTECH). Retos a la regulación y a la supervisión financiera", Revista Iberoamericana del Mercado de Valores, 54 (julio 2018); Alberto Javier Tapia Hermida, "La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento", Revista de la Asociación Española de Abogados Especializados en Responsabilidad Civil y Seguro, 76 (20 20), p. 81. Así mismo, del mismo autor, pueden leerse los siguientes comentarios en su blog: "Tecnoseguros (InsurTech). La digitalización del mercado asegurador. Impactos y consecuencias", El Blog de Alberto J. Tapia Hermida, 21 mayo 2018; "Robots responsables (1): La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro", El Blog de Alberto J. Tapia Hermida, 1 diciembre 2020. Se hicieron eco de tal falso mito, por ejemplo: A. Padrón Villalba, "Claroscuros de los robo-advisors: inclusión financiera, regulación y consumidores", Revista de Derecho Bancario y Bursátil, 161 (enero-marzo 2021); Rebeca Herrero Morant, "Aspectos jurídicos del uso de la inteligencia artificial…", op. cit.
89 (2020/2012 [INL]).
90 La igualdad y la no discriminación, además de la solidaridad, se contiene, en la página 15 de las directrices éticas, como "derechos fundamentales como base para una IA fiable".
91 Vid. Rodrigo Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., p. 507.
92 En la traducción recogida de la siguiente noticia de prensa: M. Gascón, "Primera cumbre mundial sobre inteligencia artificial: lo que se ha decidido y cómo te puede afectar", 20 minutos, 6 noviembre 2023.
93 Vid. D. Vásquez Vega, "Incidencia de las pruebas genéticas en los contratos de seguros", Revista Ibero-Latinoamericana de Seguros, 23, 41 (2014), p. 93; como citábamos, a otros efectos (relacionados con los avances científicos en la genética), en: Marta García Mandaloniz, "Derecho de seguros 4.0", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 177 (2019).
94 Vid. Pablo Girgado Perandones, "Inteligencia artificial y robótica", en Derecho de seguros y tecnología, dir. por Félix Benito Osma (Madrid: Editorial Española de Seguros, Cuaderno SEAIDA, 2023), pp. 198-199.
95 Léase el párrafo 34° de la Resolución del Parlamento europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital.
96 Vid. María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación del seguro…", op. cit., p. 760.
97 A/CN.9/WG.I/WP.126, pp. 55-56, párrafo 156.
98 Vid. Abel B. Veiga Copo, "Inteligencia artificial, riesgo y seguro", Revista Ibero-latinoamericana de Seguros, 30, 54 (enero-junio 2021), p. 35.
99 Ibídem, p. 7.
100 Ibídem, p. 11.
101 Vid. Pablo Girgado Perandones, "Inteligencia artificial y robótica…", op. cit., p. 208. También la citada Resolución del Parlamento europeo sobre un régimen de responsabilidad en materia de IA aludía, en el apartado sexto de su introducción, a la "multitud de agentes involucrados [que] representan un reto importante para la eficacia de las disposiciones del marco de responsabilidad civil de la Unión y nacional".
102 (2020/2014 [INL]).
103 Véase Pablo Girgado Perandones, "La regulación de la inteligencia artificial en la Unión Europea…", op. cit., 3622.
104 "La persona que crea, controla e interfiere en el sistema" se precisó en: Ibídem, 3623.
105 Véase supra la nota a pie de página número 101.
106 Más información acerca de este ejemplo se encuentra en: R. Santos Diaz, "Robo-advisory: a legal perspective", The Fintech Times, 20 November 2020. Por su parte, Rebeca Herrero Morant, "Aspectos jurídicos del uso de la inteligencia artificial…", op. cit., nombró, como otro ejemplo de reglas de identificación de la persona responsable, el caso de Alemania; citando (en la nota a pie de página 30) a: I. Farrando Miguel, "Algoritmos en el mercado de valores y protección del inversor: "robo-advisors"", en La regulación de los algoritmos, dir. por A. J. Hergo Lora (Cizur Menor: Aranzadi Thomson-Reuters, 2020), p. 129.
107 Directiva 2014/65/UE del Parlamento europeo y del Consejo, de 15 de mayo de 2014, relativa a los mercados de instrumentos financieros (DOUE L 173, 12 junio 2014, páginas 349 a 496); recientemente modificada por la Directiva (UE) 2024/790 del Parlamento europeo y del Consejo, de 28 de febrero de 2024 (DOUE L 790, 8 marzo 2024, pp. 1-11).
108 Reglamento (UE) 600/2014 del Parlamento europeo y del Consejo, de 15 de mayo de 2014, relativo a los mercados de instrumentos financieros (DOUE L 173, 12 junio 2014, pp. 84-148).
109 Véase: Fernando Zunzunegui, "La responsabilidad del asesor financiero en el robo advise", Revista de Derecho del Mercado Financiero, 22 octubre 2019.
110 Según expresó M. Huete, "Los roboadvisors…", op. cit.
111 Que los robo-advisors están sometidos a las "mismas normas de regulación financiera" y a un "estricto régimen de supervisión" se enfatizó en: L. de la Peña, F. Cholvi, J. C. Ruiz, "Roboadvisors…", op. cit. También Fernando Zunzunegui, "La responsabilidad del asesor financiero…", op. cit., se refirió al "sometimiento a la supervisión" y a la "no exención del cumplimiento de las normas de conducta".
112 Como relata: P. de Biase, "¿Necesitan los robo-advisors una regulación específica?", Perezllorca.com.
113 Ídem.
114 En el planteamiento expuesto en ídem.
115 Como se responde en ídem.
116 En general, aunque no en especial para el Derecho de seguros, la Nota de la Secretaría de la CNUDMI reseñada y fechada el 5 de mayo de 2021 así lo reflejó en la página 12, párrafo 47°.
117 En aseveración está tomada prestada de modo literal de: E. Aguilar, "Todo sobre la tecnología blockchain aplicada a los seguros", FutureSpace.
118 Vid. Rafael Illescas Ortiz, "Efectos jurídicos sobre el contrato de seguro del uso generalizado de las tecnologías de la información", Cuadernos de la Fundación, 162 (abril 2010), p. 74.
119 En un sentido similar, léase: Abel B. Veiga Copo, "Inteligencia artificial, riesgo…", op. cit., 34 y la nota a pie de página número 150.
120 En la conversación reflejada en: P. Bertolini, "La responsabilidad de la IA es humana", DpLnews. com. Digital Trends, 17 octubre 2023.
121 En concordancia con lo plasmado en la noticia de Adevinta Spain sobre "la responsabilidad humana sobre la IA".
122 "Resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas, sin obstaculizar con ello la innovación" de la IA, en las palabras tomadas del Considerando B de la introducción de la Resolución del Parlamento europeo de 16 de febrero de 2017.
123 En sintonía con la respuesta de A. Renda ante la pregunta que se le formuló, acerca de "¿cómo regular sin inhibir la innovación?", en la conversación publicada en: P. Bertolini, "La responsabilidad de la IA…", op. cit.
124 Como así se diferenció en la Resolución del Parlamento europeo sobre la IA en la era digital, en el párrafo 133°.
125 Entre las recomendaciones para los reguladores y los supervisores que se contienen en el apartado final de las conclusiones y las recomendaciones (p. 18) de un documento de la Asociación de Ginebra (aludido infra en la nota a pie de página posterior) está la implementación de un marco regulatorio "agnóstico" o independiente de la tecnología que sea capaz de garantizar su adaptación a los desarrollos tecnológicos futuros.
126 Que "con los rápidos desarrollos tecnológicos, es difícil para los reguladores mantenerse al día", lo manifestó la Asociación de Ginebra en: D. Noordhoek, Regulatory considerations for digital insurance business models - Issue brief, Switzerland, The Geneva Association, 17 March 2021, 9; con cita (en la nota a pie 12) a: OECD, Technology and innovation in the insurance sector (OECD, 2017), 48 páginas. Por su parte, que "la tecnología avanza más rápido que los procesos regulatorios" lo recalcaron para las Fintech: Aurelio Gurrea Martínez, N. Remolina, "Una aproximación regulatoria y conceptual a la innovación financiera y la industria fintech", en Fintech, Regtech y Legaltech: fundamentos y desafíos regulatorios, dir. por Aurelio Gurrea Martínez, N. Remolina (Valencia: Tirant Lo Blanch, 2020), 147. Todo lo anterior tuvimos ocasión de destacarlo en la nota a pie de página número 195 de nuestra siguiente publicación en coautoría: Marta García Mandaloniz, Fernando Javier Ravelo Guillén, "Empresas de tecnología e innovación…", op. cit.
127 En A. Padrón Villalba, "Claroscuros de los robo-advisors…", op. cit., se cita (en la conclusión sexta y en la última de sus notas a pie de página) el siguiente trabajo: J. J. Daigre, "Technologie et Droit", Banque et Droit, 171 (janvier-février 2017): 8, donde se indica (traducido) que: "Es tarea del legislador saber establecer reglas suficientemente generales para comprender los cambios de la técnica y suficientemente adaptadas para que puedan ser aplicadas correctamente".
128 Vid. Abel B. Veiga Copo, "Inteligencia artificial, riesgo…", op. cit., p. 22.
129 Como pronosticó, para otro ámbito del Derecho privado, el profesor Javier W. Ibáñez Jiménez, Blockchain: primeras cuestiones en el ordenamiento español (Madrid: Dykinson, 2018), p. 173: "el Derecho societario del futuro cambiará radicalmente cuando la automatización de las sociedades a través de SC [smart contracts] especiales (como las DAO u organizaciones autónomas descentralizadas en DLT) […] se consolide".
130 En los comentarios de A. Renda (plasmados en: P. Bertolini, "La responsabilidad de la IA…", op. cit.).
131 Vid. C. Planas Boy, "La Unión Europea aprueba la primera ley sobre inteligencia artificial del mundo", El Periódico, 2 febrero 2024
132 Pablo Girgado Perandones, "Inteligencia artificial y robótica…", op. cit., 201, resaltó la "necesidad de una regulación supranacional".
133 Mandato conferido por la CNUDMI en el 55° período de sesiones (A/77/17, párrafos 159 y 163).
134 A/CN.9/WG.IV/WP.182.
135 A/CN.9/WG.IV/WP.183.
136 2020/2266 (INI)
137 A/CN.9/WG,IV/WP.186, de 30 de septiembre de 2024, 17 páginas.
138 Anexo IV, A/79/17, 3 páginas.
139 Letra a) del artículo 2.1.
140 En el texto literal del artículo 2.1.b) in fine.
141 A/CN.9/WG.IV/WP.185, p. 3.
142 En el pár rafo 25 °, p. 7.
143 Página 4.
144 En el párrafo 10, correspondiente a la letra a) del apartado cuarto del epígrafe II.A, p. 4.
145 El párrafo 34° del Proyecto de Guía manifiesta que dentro del concepto de "formación" se incluyen las negociaciones previas que se llevan a cabo para celebrar el contrato.
146 En el párrafo 11°, en la página 4.
147 Léase la nota a pie de página n.° 1 de la Ley Modelo, correspondiente al apartado segundo del artículo 5 que permite ampliar, a voluntad del Estado, esta disposición desde la formación a la ejecución.
148 Lo nombra en la página 13, en el párrafo 51, relativo a la explicación que hace del artículo 5 de la Ley Modelo.
149 El artículo 6.3 de la Ley Modelo habla solo de formación y no de ejecución. No obstante, el Proyecto de Guía alude también a la ejecución (en su párrafo 57, de la página 14, al hilo de la explicación de ese artículo 6).
150 El párrafo 34° del Proyecto de Guía, en su página 10, menciona que los sistemas automatizados pueden emplearse "en una sola etapa o en varias etapas del ciclo de vida del contrato".
151 Párrafo 22° del Proyecto de Guía.
152 En su artículo 4 y siguientes.
153 A partir de la página 4.
154 Así es titulado el artículo 4 de la Ley Modelo.
155 Párrafo 14° del Proyecto de Guía.
156 Según explica el párrafo 15° del Proyecto de Guía.
157 Ídem.
158 También en el párrafo 28 °, de la página 8 del Proyecto de Guía.
159 Párrafos 16° y 37°.
160 Léase, otra vez, el párrafo 16°, además del párrafo 42°. También el principio de libre autonomía de la voluntad aparece en el artículo 7.1 o en el 8.1 de la Ley Modelo.
161 Véase supra la nota a pie de página número 135.
162 Página 12, párrafo 47°.
163 Página 10, párrafo 36°.
164 En la página 11 y, en particular, en el párrafo 41°.
165 "Los sistemas automatizados son herramientas sin voluntad independiente ni personalidad jurídica, por lo que el resultado de un sistema automatizado debería atribuirse a personas y no al sistema en sí", en el texto literal recogido en el párrafo 62 del Proyecto de Guía (p. 15).
166 Se manifestaron en contra más de doscientos cincuenta y siete especialistas de catorce países en una carta enviada al presidente de la Comisión europea, según se indicó, entre otras, en la siguiente nota de prensa: M. Rius, "¿Urge regular ya los derechos de los robots en Europa?", La Vanguardia, 17 abril 2018. Se rechazó, entre muchos otros, por ejemplo, por P. García Mexia, quien indicó que extendería a "sistemas o ingenios artificialmente inteligentes un atributo, la propia personalidad, que es patrimonio exclusivo de la esencia humana"; aunque siendo consciente de que son viables "otras ficciones en el Derecho, como la misma noción de personalidad jurídica" de las sociedades civiles o mercantiles. Vid. P. García Mexia, "La inteligencia artificial. Una mirada desde el derecho", El Notario del Siglo XXI, 89 (enero-febrero 2020), p. 159.
167 Por ejemplo, R. López de Mántaras comentó que otorgar "personalidad electrónica" a los robots era "escudarse en la máquina para que no se pueda exigir responsabilidad a las personas"; en la opinión reflejada en: M. Rius, "¿Urge regular…?", op. cit.
168 En la página 27 del informe.
169 Resolución del Parlamento europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103 (INL); P8 TA (2017) 0051) y Anexo a la Resolución. Las reflexiones en torno a esta Resolución y al debate que planteó sobre la "personalidad robótica" las tomamos de las que expusimos en la conclusión de nuestra anterior publicación: Marta García Mandaloniz, Una sociedad mercantil simplificada y digitalizada. Un ecosistema emprendedor innovador, inclusivo y sostenible (Madrid Dykinson, 2020), pp. 316 y ss. Específicamente conviene citar aquí, en cuanto al tema de la responsabilidad civil y la IA, a: María Luisa Atienza Navarro, Daños causados por inteligencia artificial y responsabilidad civil (Barcelona: Atelier, 2022), 450 páginas; María Luisa Atienza Navarro, "La responsabilidad civil por daños causados por sistemas de inteligencia artificial. (A propósito de la Resolución del Parlamento europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica)", en Libro homenaje al profesor Rubén Stiglitz, dir. por Abel B. Veiga Copo (Cizur Menor: Civitas, marzo 2020), pp. 1.212 y ss.
170 Página 38.
171 Igualmente, en la página 38.
172 Página 38, de nuevo.
173 Léase supra la nota a pie de página número 158.
174 Según lo expresa el Proyecto de Guía cuando analiza el párrafo primero del artículo 7, como "norma primaria" de la atribución.
175 Apartado primero del artículo 7.
176 Al respecto, puede leerse el párrafo 66°, en la página 16, del Proyecto de Guía.
177 Apartado segundo.
178 En la explicación que incluye, respecto del apartado segundo del artículo 7, el Proyecto de Guía en su página 16.
179 En la página 17, párrafo 68°.
180 Ídem.
181 Al respecto, léase el artículo 7.4 de la Ley Modelo y la explicación que, de ese párrafo cuarto de ese precepto, hace el Proyecto de Guía.
182 Párrafo 77° del Proyecto de Guía.
183 Por estos errores o, incluso, por "interferencias de terceros", según ejemplifica el Proyecto de Guía en la explicación del artículo 8 de la Ley Modelo (en el párrafo 77°, en la página 18).
184 Al comenzar el artículo 8.1 del siguiente modo: "Salvo acuerdo en contrario de las partes". También en su apartado segundo se prioriza, a las normas supletorias del apartado primero, el acuerdo de las partes o la normativa interna vigente respecto de los resultados involuntarios o imprevisibles.
185 Párrafo 85°, página 20, del Proyecto de Guía.
186 Como apunta el Proyecto de Guía en el párrafo 80°, página 19.
187 En las palabras textuales del párrafo 89° del Proyecto de Guía: "El artículo 9 también pone de relieve la importancia de revelar información durante todo el "ciclo de vida de la IA" y, por consiguiente, más allá del entorno contractual en que finalmente se utilice el sistema".
188 En virtud del artículo 9 de la Ley Modelo, rubricado: "Requisitos de información".
189 Los ejemplos de información mencionados durante el proceso de redacción de la Ley Modelo los cita el Proyecto de Guía (en el párrafo 88°).
190 Vid. R. Viguera Revuelta, "Incidencia de la inteligencia artificial…", op. cit., p. 493.
191 Vid. C. M. Madrid Casado, "Ética, moral y política de la inteligencia artificial", en Ethical lessons of artificial intelligence, Universidad Carlos III de Madrid, 4 diciembre 2023.
192 Ídem.
193 Ídem.
194 Ídem.
195 Como comentó Abel B. Veiga Copo, "Inteligencia artificial, riesgo…", op. cit., p. 28.
196 Vid. María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., p. 760.
197 Así se pronunció A. Renda en la conversación plasmada en: P. Bertolini. "La responsabilidad de la IA…", op. cit., respecto del empleo que las empresas de cualquier sector económico hagan de la IA generativa.
198 Vid. Pablo Girgado Perandones, "La regulación de la inteligencia artificial en la Unión Europea…", op. cit.
199 Véase: María del Rocío Quintáns Eiras, "Nuevas fronteras de la contratación de seguros…", op. cit., pp. 728-729.
200 En su página 3.
201 Página 4.
202 Así, en: Marta García Mandaloniz, "Derecho de seguros 4.0…", op. cit.
203 Vid. Directorate-General for Research and Innovation, "Industry 5.0. Towards a sustainable, human centric and resilient European Industry", European Commission, 5 January 2021; consultado el 28 de febrero de 2025, https://research-and-innovation.ec.europa.eu/knowledge-publications-tools-and-data/publications/all-publications/industry-50-towards-sustainable-human-centric-and-resilient-european-industry_en
BIBLIOGRAFÍA
Autores varios. "Robo-advisors e InsurTech. Automatización de soluciones de seguro para los consumidores", Faster Capital, 17 diciembre 2023.
AEFI, UNESPA. Informe sobre la digitalización de la industria aseguradora. Análisis y reflexión de los obstáculos y propuestas de mejora en el sector asegurador, Madrid: AEFI, UNESPA, marzo 2023.
Aguilar, E. "Todo sobre la tecnología blockchain aplicada a los seguros", FutureSpace.
Alarcón Fidalgo, Joaquín. "La inteligencia artificial: retos para la responsabilidad civil y el seguro", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 201 (enero-marzo 2025).
Atienza Navarro, María Luisa. Daños causados por inteligencia artificial y responsabilidad civil, Barcelona: Atelier, 2022.
Atienza Navarro, María Luisa. "La responsabilidad civil por daños causados por sistemas de inteligencia artificial. (A propósito de la Resolución del Parlamento europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica)", en Libro homenaje al profesor Rubén Stiglitz, dirigido por Abel B. Veiga Copo, Cizur Menor: Civitas, marzo 2020.
Bertolini, P. "La responsabilidad de la IA es humana", DpLnews.com. Digital Trends, 17 octubre 2023.
Biase, P. de. "¿Necesitan los robo-advisors una regulación específica?", Perezllorca.com.
Cano Martínez, D. "Transformación de canales de intermediación del ahorro. El papel de las fintech. Una especial consideración a los robo-advisors", Fundación Caixa d'Enginyers, Nota Técnica, 37 (noviembre 2018).
Church, B. "5 tipos de chatbot y cómo elegir el adecuado para su negocio", IBM, 5 septiembre 2023.
Daigre, J. J. "Technologie et Droit", Banque et Droit, 171 (janvier-février 2017).
De Andrés-Sánchez, Jorge y Gené-Albesa, Jaume. "Evaluación de los robots conversacionales en la comunicación asegurado-asegurador por profesionales del mercado español con un modelo de aceptación tecnológica", Anales del Instituto de Actuarios Españoles, 29 (2023).
De la Peña, L.; Cholvi, F. y Ruiz, J. C. "Roboadvisors: ¿qué son y qué ventajas aportan frente al asesoramiento tradicional?", Garrigues Digital - Innovación legal en la economía 4.0 (18 mayo 2021).
Directorate-General for Research and Innovation, "Industry 5.0. Towards a sustainable, human centric and resilient European Industry", European Commission, 5 January 2021.
EIOPA. Big data analytics in motor and health insurance: a thematic review, Luxembourg: Publications Office of the European Union, 2019.
Farrando Miguel, I. "Algoritmos en el mercado de valores y protección del inversor: "robo-advisors"", en La regulación de los algoritmos, dirigido por A. J. Huergo Lora, Cizur Menor: Aranzadi Thomson-Reuters, 2020.
Feliú Rey, Jorge. "La personalización automatizada y el principio de buena fe (uberrimae bonae fidei) en el contrato de seguro", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 197-198 (enero-junio 2024).
García Mandaloniz, Marta. Una sociedad mercantil simplificada y digitalizada. Un ecosistema emprendedor innovador, inclusivo y sostenible, Madrid: Dykinson, 2020.
García Mandaloniz, Marta. "Derecho de seguros 4.0", Revista española de seguros. Publicación doctrinal de Derecho de Seguros, 177 (2019).
García Mandaloniz, Marta y Ravelo Guillén, Fernando Javier. "El uso responsable y ético de los sistemas de automatización y de inteligencia artificial en el sector asegurador", en Tratado de Derecho Digital, dirigido por Javier Ibáñez Jiménez, Madrid: Reus, 2025, (en prensa).
García Mandaloniz, Marta y Ravelo Guillén, Fernando Javier. "Empresas de tecnología e innovación en el sector asegurador. En transformación y en tránsito con las empresas InsurTech", Revista española de seguros. Publicación doctrinal de Derecho de Seguros, 191 (2022). También publicado en: Derecho de seguros y tecnología, dirigido por Félix Benito Osma, Madrid: Editorial Española de Seguros, Cuaderno SEAIDA, 2023.
García Mexia, P. "La inteligencia artificial. Una mirada desde el derecho", El Notario del Siglo XXI, 89 (enero-febrero 2020).
Gascón, M. "Primera cumbre mundial sobre inteligencia artificial: lo que se ha decidido y cómo te puede afectar", 20 minutos, 6 noviembre 2023.
Girgado Perandones, Pablo. "Inteligencia artificial y robótica", en Derecho de seguros y tecnología, dirigido por Félix Benito Osma, Madrid: Editorial Española de Seguros, Cuaderno SEAIDA, 2023.
Girgado Perandones, Pablo. "La regulación de la inteligencia artificial en la Unión Europea y su repercusión en el contrato de seguro", Actualidad Jurídica Iberoamericana, 16 (2) (2022).
Gurrea Martínez, Aurelio, Remolina, N. "Una aproximación regulatoria y conceptual a la innovación financiera y la industria fintech", en Fintech, Regtech y Legaltech: fundamentos y desafíos regulatorios, dirigido por Gurrea Martínez, Aurelio, Remolina, N., Valencia: Tirant Lo Blanch, 2020.
Herrero Morant, Rebeca. "Aspectos jurídicos del uso de la inteligencia artificial por los robo-advisors", Revista de Derecho del Mercado de Valores, 30 (enero-junio 2022).
Huete, M. "Los roboadvisors. Situación y perspectivas", Martinhuete.com, 19 septiembre 2021.
Ibáñez Jiménez, Javier. Blockchain: primeras cuestiones en el ordenamiento español, Madrid, Dykinson, 2018.
Illescas Ortiz, Rafael. "Efectos jurídicos sobre el contrato de seguro del uso generalizado de las tecnologías de la información", Cuadernos de la Fundación, 162 (abril 2010).
Madrid Casado, C. M. "Ética, moral y política de la inteligencia artificial", en Ethical lessons of artificial intelligence, Universidad Carlos III de Madrid, 4 diciembre 2023.
Mapfre Economics. Inclusión financiera en seguros. Microseguros para la inclusión, Madrid Mapfre Economics, junio 2020.
Mercader, J. "¿Qué es un robo advisor?", Inbestme, 22 noviembre 2022.
Noordhoek, D. Regulatory considerations for digital insurance business models - Issue brief, Switzerland, The Geneva Association, 17 March 2021.
OECD. Technology and innovation in the insurance sector, OECD, 2017.
Padrón Villalba, A. "Claroscuros de los robo-advisors: inclusión financiera, regulación y consumidores", Revista de Derecho Bancario y Bursátil, 161 (enero-marzo 2021).
Peñas Moyano, María Jesús. "Obligaciones generales de información", en La distribución de seguros privados, dirigido por Juan Bataller Grau, María del Rocío Quintáns Eiras, Madrid: Marcial Pons, 2019.
Pérez Moriones, A. "Contrato de seguro e inteligencia artificial: el inexcusable replanteamiento de la posición del asegurado", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 197-198 (enero-junio 2024).
Planas Boy, C. "La Unión Europea aprueba la primera ley sobre inteligencia artificial del mundo", El Periódico, 2 febrero 2024.
Quintáns Eiras, María del Rocío. "Nuevas fronteras de la contratación de seguros: impacto de la IA en la suscripción del contrato", Revista Española de Seguros. Publicación doctrinal de Derecho de Seguros, 200 (octubre-diciembre 2024).
Rius, M. "¿Urge regular ya los derechos de los robots en Europa?", La Vanguardia, 17 abril 2018.
Santos Diaz, R. "Robo-advisory: a legal perspective", The Fintech Times, 20 November 2020.
Sanz Bayón, Pablo. "La automatización y robotización de los servicios de asesoramiento financiero e inversión: oportunidades y desafíos regulatorios", en Fintech, Regtech y Legaltech: Fundamentos, implicaciones y desafíos regulatorios, dirigido por N. Remolina, Valencia: Tirant Lo Blanch, 24 febrero 2020.
Tapia Hermida, Alberto Javier. "Robots responsables (1): La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro", El Blog de Alberto J. Tapia Hermida, 1 diciembre 2020.
Tapia Hermida, Alberto Javier. "La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento", Revista de la Asociación Española de Abogados Especializados en Responsabilidad Civil y Seguro, 76 (2020).
Tapia Hermida, Alberto Javier. "Las tecnologías (FINTECH). Retos a la regulación y a la supervisión financiera", Revista Iberoamericana del Mercado de Valores, 54 (julio 2018).
Tapia Hermida, Alberto Javier. «Tecnoseguros (InsurTech). La digitalización del mercado asegurador. Impactos y consecuencias", El Blog de Alberto J. Tapia Hermida, 21 mayo 2018.
Vásquez Vega, D. "Incidencia de las pruebas genéticas en los contratos de seguros", Revista Ibero-Latinoamericana de Seguros, 23, 41 (2014).
Veiga Copo, Abel B. "Inteligencia artificial, riesgo y seguro", Revista Ibero-latinoamericana de Seguros, 30, 54 (enero-junio 2021).
Vásquez Vega, D. "¿Hasta dónde transformará el seguro el "InsurTech"? Cinco Días, 1 septiembre 2020.
Viguera Revuelta, Rodrigo. "Incidencia de la inteligencia artificial en el diseño, distribución y comercialización del contrato de seguro", en Digitalización, inteligencia artificial y Derecho mercantil, dirigido por R. López Ortega, M. Pacheco Cañete, Madrid: Aranzadi, 2024.
Zunzunegui, Fernando, "La responsabilidad del asesor financiero en el robo advise", Revista de Derecho del Mercado Financiero (22 octubre 2019).