Aprobada la AI Act: ¿Cómo afecta la ley de regulación de la IA al sector de los seguros?
Tras varios años de preparación, el 13.07.2024 se publicó la Ley de Inteligencia Artificial (AI Act) en el Diario Oficial de la Unión Europea (UE). Con ello, el 02.08.2024 entrará en vigor la primera regulación del mundo sobre el uso de la inteligencia artificial y, como es habitual en las regulaciones de la UE, se convertirá inmediatamente en ley en todos los estados miembros, sin más actos nacionales de implementación.
Como expliqué en mis contribuciones del 03.02.2022 y el 22.02.2022, la nueva regulación adopta un enfoque basado en el riesgo y divide las aplicaciones de la IA en cuatro categorías:
- Prácticas prohibidas
- Sistemas de alto riesgo
- Sistemas de IA con requisitos específicos de transparencia
- Todos los demás sistemas de IA (minimal risk).
Sistemas de alto riesgo en el sector seguros
Desde el punto de vista del sector de los seguros, se esperaba con impaciencia qué aplicaciones entrarían finalmente en la categoría de los sistemas de alto riesgo enumerados en el anexo III de la Ley y, por tanto, en el ámbito de la reglamentación. La cuestión ha sido objeto de polémicas durante el proceso legislativo. La redacción definitiva de la ley dice:
«Sistemas de IA destinados a utilizarse para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de enfermedad y de vida;» (anexo III, punto 5c).
Por lo tanto, la clasificación de las aplicaciones de IA en el sector de los seguros bajo la categoría sistemas de alto riesgo se limita a la evaluación de riesgos y la fijación de precios en el sector de los seguros de vida y de enfermedad. Las normas aplicables a los sistemas de alto riesgo incluyen, entre otras cosas, una gestión específica del riesgo, la gobernanza de los datos, la documentación técnica detallada y obligaciones de registro, normas de transparencia, la supervisión humana y requisitos específicos de precisión, solidez y ciberseguridad. Además, establece obligaciones de gran alcance para los proveedores de sistemas de alto riesgo. Por ejemplo, establecer su propio sistema de gestión de la calidad, la obligación de llevar a cabo evaluaciones periódicas de la conformidad, así como amplios requisitos de información a las autoridades competentes.
En aras de la exhaustividad, cabe señalar que, de conformidad con el punto 4 del anexo III, el uso de la IA en la gestión de los recursos humanos en las empresas y, por tanto, en particular, en los seguros también se clasifica como aplicación de alto riesgo.
Requisitos de transparencia en el sector seguros
Por lo que se refiere a las obligaciones de transparencia para los proveedores y usuarios de sistemas de IA, en primer lugar parece relevante para las compañías de seguros la cuestión de la interacción con las personas físicas. En concreto, cuando se utiliza un chatbot en la comunicación con el cliente, el usuario debe ser informado de que está interactuando con una IA.
Además, se formulan requisitos de transparencia adicionales para los «modelos de IA de uso general», denominación que se refiere principalmente a los modelos básicos.
Modelos Large Language
Durante el largo proceso legislativo, la burocracia ha quedado superada por la realidad en forma de los modelos Large Language. Como muy tarde con la marcha triunfal de ChatGPT en 2023, quedó claro que la IA generativa también debería tenerse en cuenta en la regulación. De hecho, la Ley de Inteligencia Artificial casi habría fracasado en los últimos metros de la controversia sobre el alcance de la regulación.
Entre el alto riesgo y la ausencia de regulación, se llegó a un acuerdo casi «en el centro» y se formularon nuevos requisitos de transparencia. Los modelos básicos se dividen en dos categorías: «modelos de IA de uso general» y «modelos de IA de uso general con riesgo sistémico». Los criterios de clasificación figuran en el nuevo anexo XIII. La complejidad del modelo, medida en FLOPs (operaciones de punto flotante por segundo), resulta aquí fundamental. De forma escalonada, los proveedores de modelos básicos están sujetos a amplios requisitos de transparencia.
Modelos Large Language en el sector seguros
Los modelos Large Language se están desarrollando actualmente en el ámbito de los seguros para una amplia variedad de aplicaciones, como la gestión del conocimiento. En la práctica, no se están utilizando modelos básicos propios, sino que se recurre a los modelos básicos existentes y disponibles. En este contexto, las empresas de seguros no suelen verse afectadas por estas obligaciones de transparencia; al contrario, como destinatarias de las obligaciones de información de los proveedores de modelos básicos, se benefician de ellas.
¿No todo es tan malo entonces?
En resumen, constatamos que la regulación de la IA afecta a los seguros de manera controlable (moderada).
- Las aplicaciones de IA para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de enfermedad y de vida son aplicaciones de alto riesgo y, por lo tanto, están ampliamente reguladas.
- Las comunicaciones basadas en IA (chatbots) con personas físicas están sujetas a la obligación de notificar que se está interactuando con una IA.
Por el contrario, el gran número de otras aplicaciones de las que nos ocupamos todos los días pertenece a la categoría cuatro de las aplicaciones para las que no se ha establecido ninguna regulación. Existe la posibilidad de asumir un compromiso voluntario, algo que no cabe esperar en este momento debido a la amplia regulación que ya existe en nuestro sector.
En buenas manos, sin duda: msg insur:it proporciona un nivel máximo de seguridad de las aplicaciones de IA
Las aplicaciones de IA desarrolladas hasta ahora por msg insur:it (migración asistida por IA, msg.ask:it, msg.claim:it caen en la categoría cuatro y, por lo tanto, no están reguladas por la Ley de IA. A pesar de ello, sin embargo, las aplicaciones ofrecen el máximo nivel de seguridad y cumplimiento de los requisitos regulatorios existentes en el sector de los seguros. En la medida en que en el futuro ofrezcamos aplicaciones de IA sujetas a la Ley de IA, garantizamos que cumplirán las normas, tanto en el caso de aplicaciones de alto riesgo como en el de requisitos específicos de transparencia.