msg Logo

inteligencia artificial

La ley de Inteligencia Artificial: ¿afectará también al sector de los seguros?

por Stefan Nörtemann / 15. enero 2023

Inteligencia artificial fiable

Diversos organismos europeos llevan varios años tratando cuestiones relacionadas con la ética del uso de la IA en muchos aspectos de la vida. Ante todo, su objetivo es que la inteligencia artificial sea fiable, ética, estable y que cumpla la legislación. Estos requisitos no solo deben cumplirlos cada sistema de IA individual, sino la IA en general. Por ello, van a imponerse unas obligaciones a las partes implicadas, como usuarios, proveedores y desarrolladores de sistemas de IA.

 

El estado de la cuestión a principios de 2023

La publicación de un borrador de regulación* conjunto por parte de la Comisión Europea y del Parlamento Europeo el 21 de abril de 2021 constituyó un paso adelante hacia la regulación estandarizada sobre la inteligencia artificial en toda la UE. Desde entonces, ha habido consultas y amplios debates entre los organismos, los representantes de la industria y las autoridades. El objetivo original de aprobar la llamada ley de Inteligencia Artificial en 2022 no se logró. En todo caso, el Consejo Europeo acordó una orientación común el 6 de diciembre de 2022 que se recoge en la orientación general** con fecha del 25 de noviembre de 2022. Todavía no se trata de una decisión sobre la normativa, sino que describe la posición de partida del Consejo Europeo ante el proceso de debate a tres bandas que se espera que concluya con la aprobación de la norma en 2023.

 

Categorías de la regulación

Tal y como quedó descrito en mis artículos del 3 de febrero de 2022 y del 22 de febrero de 2022, el borrador de la ley de Inteligencia Artificial persigue el principio de una regulación basada en el riesgo. Este principio requiere que a cada aplicación de IA se asigne a una de las cuatro categorías siguientes: prácticas prohibidas, sistemas de alto riesgo, sistemas con obligaciones especiales de transparencia y el resto de sistemas de IA (los que no se incluyen en las otras categorías). La idea es que solo los sistemas de alto riesgo cuenten con una regulación exhaustiva.

 

¿Qué implicaciones tiene esto para la industria de los seguros?

Al menos desde la publicación del borrador original, los debates se han centrado en la cuestión de si las aplicaciones de IA del sector de los seguros se consideran sistemas de alto riesgo y, por tanto, están sujetas a una regulación exhaustiva y, si es el caso, cuáles de ellos. Esto no estaba previsto en absoluto en el borrador original*. En un documento previo que recoge el compromiso del Consejo Europeo (Compromise text del 29 de noviembre de 2021)*** aparece: «… Sistemas de IA destinados a la fijación de primas de seguros, suscripciones y evaluación de siniestros». En la «orientación general»,** esto se ha cambiado por «sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la tarificación en relación con las personas físicas en el caso de los seguros de vida y de salud…» (orientación general, anexo III, 5. (d))

 

Requisitos para los sistemas de alto riesgo

En pocas palabras, esto significa que los sistemas de alto riesgo en los seguros se limitan a las aplicaciones de IA utilizadas para la evaluación de riesgos y la tarificación en los seguros de vida y salud. Aquí no se recoge ningún otro segmento. Esto da lugar a una amplia gama de requisitos para las aplicaciones de la IA destinadas a ser utilizadas para la evaluación de riesgos y la tarificación en los seguros de vida y salud («orientación general», capítulo 2, artículos 8 – 15).

Entre ellos se incluyen la gestión específica de riesgos, la gobernanza de datos, la documentación técnica detallada y los requisitos de mantenimiento de registros, las normativas de transparencia, la supervisión humana y los requisitos específicos de precisión, solidez y ciberseguridad.

 

Los retos del uso de sistemas de alto riesgo

Más allá de las regulaciones bastante «burocráticas» y organizativas que se encuentran en el trabajo rutinario, el propio diseño de los sistemas de IA debe tener en cuenta unos requisitos técnicos exigentes.

 

Dos de los muchos ejemplos de ello son los requisitos de transparencia (artículo 13) para los sistemas de IA en combinación con la supervisión humana (artículo 14), cuyo propósito es garantizar que los usuarios puedan interpretar con corrección los resultados del sistema de IA y supervisar su funcionamiento con eficacia. Este es un obstáculo fundamental, en especial, para los sistemas de caja negra como los que se emplean en el aprendizaje profundo (aquí la palabra clave es la explicabilidad).

 

Resumen hasta la fecha

Aunque el Consejo Europeo ha acordado una «orientación general»,** no hay nada definitivo. Sin embargo, la orientación general es un claro indicio de la dirección hacia la que avanza la cuestión, y cabe esperar que al menos algunas aplicaciones de IA de los ámbitos de los seguros de vida y de salud terminen clasificadas como sistemas de alto riesgo. Le informaremos de cualquier novedad.

 

*) Propuesta de REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO POR EL QUE SE ESTABLECEN NORMAS ARMONIZADAS EN MATERIA DE INTELIGENCIA ARTIFICIAL (LEY DE INTELIGENCIA ARTIFICIAL) Y SE MODIFICAN DETERMINADOS ACTOS LEGISLATIVOS DE LA UNIÓN

**) Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (Orientación general)

*) Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (documento de compromiso de la Presidencia)

¿QUIERES SABER MÁS?

Suscríbete a nuestro blog y recibe las actualizaciones.

Puedes revocar tu consentimiento en cualquier momento.