msg Logo

inteligencia artificial

O Regulamento Inteligência Artificial irá também afetar a indústria seguradora?

de Stefan Nörtemann / 15. Janeiro 2023

Inteligência artificial fiável

De há uns anos para cá que diversos organismos europeus se têm debatido com questões relacionadas com a ética relacionada com a utilização da IA em muitos aspetos da vida. O seu principal objetivo é uma inteligência artificial fiável, que seja ética, robusta e legal. Isto não serve apenas para cada sistema individual de IA, mas para a IA em geral. Por conseguinte, são impostas exigências às partes envolvidas enquanto utilizadores, fornecedores e desenvolvedores de sistemas de IA.

 

Ponto de situação no início de 2023

O lançamento de um projeto de regulamento* conjunto pela Comissão Europeia e pelo Parlamento Europeu, em 21 de abril de 2021, representou um passo no sentido do regulamento normalizado em toda a UE relativo à inteligência artificial. Desde então que tem havido consultas e debates alargados entre organismos, representantes das indústrias e autoridades. O objetivo original de fazer passar o chamado Regulamento Inteligência Artificial, em 2022, não foi alcançado. Em todo o caso, o Conselho Europeu chegou a acordo relativamente a uma orientação comum, em 6 de dezembro de 2022, definida na orientação geral**, de 25 de novembro de 2022. Não se trata de uma decisão sobre o regulamento; descreve a posição em que o Conselho Europeu está a introduzir o processo de trílogo que se espera que leve à aprovação do regulamento em 2023.

 

Sistemática dos regulamentos

Tal como descrito nos meus artigos de 3 de fevereiro de 2022 e de 22 de fevereiro de 2022, o projeto do Regulamento Inteligência Artificial segue o princípio de regulamento baseado no risco. Este princípio exige que cada aplicação de IA seja atribuída a uma de quatro categorias: práticas proibidas, sistemas de alto risco, sistemas com obrigações especiais de transparência, restantes sistemas de IA (que não cabem em nenhuma das categorias anteriores). O regulamento alargado destina-se (apenas) a sistemas de alto risco.

 

O que é que isto significa para a indústria seguradora?

Pelo menos desde a publicação do projeto original, uma das questões debatida é se as aplicações da IA no setor dos seguros se poderiam qualificar como sistemas de alto risco, o que implicaria a sua sujeição a regulamentos alargados e, nesse caso, a quais. Isto não foi tido em conta no projeto original*. Um texto de compromisso preliminar do Conselho Europeu (Texto de compromisso de 29 de novembro de 2021)*** diz o seguinte: “Sistemas de IA concebidos para serem utilizados para a fixação dos prémios dos seguros, tomada firme e avaliações de pedidos…” Na orientação geral,** isto foi mudado para “sistemas de IA destinados a avaliação de risco e fixação de preços em relação a pessoas singulares no caso de seguros de vida e de saúde …” (orientação geral, Anexo III, 5. (d))

 

Requisitos para sistemas de alto risco

Simplificando, isto significa que os sistemas de alto risco em seguros se limitam a aplicações da IA usadas para a avaliação de risco e fixação de preços em seguros de vida e de saúde. Não irão ser aqui mencionados outros tipos de seguro. Isto dá origem a uma série de requisitos para aplicações da IA destinadas à avaliação de risco e à fixação de preços em seguros de vida e de saúde (orientação geral, Capítulo 2, Artigos 8.º – 15.º).

Estes incluem gestão de riscos específicos, governança de dados, documentação técnica detalhada e exigências de manutenção de registos, regulamentos sobre transparência, supervisão humana e requisitos específicos relativamente a exatidão, robustez e cibersegurança.

 

Desafios da utilização de sistemas de alto risco

Além dos regulamentos um tanto “burocráticos” e organizacionais encontrados em trabalhos subalternos, o próprio desenho dos sistemas de IA tem de ter em conta exigências técnicas desafiantes.

 

Dois dos muitos exemplos disto mesmo são os requisitos de transparência (Artigo 13.º) para os sistemas de IA em combinação com a supervisão humana (Artigo 14.º), cuja finalidade é assegurar que os utilizadores conseguem interpretar corretamente os resultados dos sistemas de IA e vigiar eficazmente o seu funcionamento. Este é um obstáculo fundamental para os sistemas de caixa preta em particular, como os usados em aprendizagem profunda (onde a palavra-chave é “explicabilidade”).

 

Conclusão provisória

Não obstante o Conselho Europeu ter concordado com uma orientação geral,** nada é definitivo. Contudo, a orientação geral é uma clara indicação do rumo que as coisas estão a tomar, e podemos esperar, pelo menos, que aplicações da IA selecionadas nos setores dos seguros de vida e saúde sejam categorizadas como sistemas de alto risco. Iremos mantê-lo informado.

 

*) Proposta de um REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO PARA ESTABELECER REGRAS HARMONIZADAS SOBRE INTELIGÊNCIA ARTIFICIAL (REGULAMENTO INTELIGÊNCIA ARTIFICIAL) E ALTERAR DETERMINADOS ATOS LEGISLATIVOS DA UNIÃO

**) Proposta de um regulamento do Parlamento Europeu e do Conselho para estabelecer regras harmonizadas sobre inteligência artificial (Regulamento Inteligência Artificial) e alterar determinados atos legislativos da União – Orientação geral

***) Proposta de um regulamento do Parlamento Europeu e do Conselho para estabelecer regras harmonizadas sobre inteligência artificial (Regulamento Inteligência Artificial) e alterar determinados atos legislativos da União – Texto de compromisso da presidência.

QUER SABER MAIS?

Subscreva o nosso blogue e receba as atualizações.

Pode revogar o seu consentimento a qualquer momento.