msg Logo

inteligencia artificial

“AI Act” adotada: qual é o impacto da Lei de Regulamentação da IA no setor dos seguros?

de Stefan Nörtemann / 29. Julho 2024

Após vários anos de preparação, a Artificial Intelligence (AI Act) foi publicada no Jornal Oficial da União Europeia (UE) em 13 de julho de 2024. A partir de 2 de agosto de 2024, entrará em vigor o primeiro regulamento do mundo referente ao uso da inteligência artificial e, tal como é habitual acontecer com os regulamentos da UE, passará imediatamente a ser lei em todos os Estados-membros, sem necessidade de mais legislação nacional de transposição.

 

Como explicado nas minhas publicações de 03/02/2022 e 22/02/2022, o novo regulamento segue uma abordagem baseada no risco e subdivide as aplicações de IA em quatro categorias:

  • Práticas proibidas
  • Sistemas de alto risco
  • Sistemas de IA com requisitos específicos de transparência

Todos os outros sistemas de IA (risco mínimo).

Regimes de alto risco no setor dos seguros

Do ponto de vista do setor dos seguros, havia uma grande expectativa de que as aplicações acabariam por ser abrangidas pela categoria dos sistemas de alto risco enumerados no Anexo III da lei e, consequentemente, pelo regulamento. Esta questão foi objeto de discussões controversas durante o processo legislativo. A redação final da lei diz:

“Sistemas de IA destinados a ser utilizados para a avaliação do risco e a fixação de preços para pessoas singulares no caso dos seguros de doença e de vida;” (Anexo III, ponto 5c).

Por conseguinte, a classificação das aplicações de IA no setor dos seguros na categoria dos sistemas de alto risco limita-se à avaliação de riscos e à formação de preços no setor dos seguros de vida e de doença. As regras aplicáveis aos sistemas de alto risco incluem, nomeadamente, a gestão específica dos riscos, a governação dos dados, a documentação técnica pormenorizada e as obrigações de manutenção de registos, as regras de transparência, a supervisão humana e requisitos específicos de rigor, robustez e cibersegurança. Além disso, são formuladas obrigações de grande alcance para os fornecedores de sistemas de alto risco. Estas medidas incluem a criação do seu próprio sistema de gestão da qualidade, a obrigação de efetuar avaliações periódicas da conformidade e a obrigação de prestar informações às autoridades competentes.

A título de exaustividade, deve referir-se que, de acordo com o ponto 4 do anexo III, a utilização da IA na gestão dos recursos humanos nas empresas e, por conseguinte, nas seguradoras, é igualmente classificada como uma aplicação de alto risco.

Requisitos de transparência no setor dos seguros

Em primeiro lugar, no que se refere às obrigações de transparência para os fornecedores e utilizadores de sistemas de IA, a questão da interação com pessoas singulares afigura-se pertinente para os seguros. Por exemplo, ao utilizar um chatbot para a comunicação com o cliente, o utilizador tem de ser informado de que está a interagir com uma IA.

Além disso, são formulados requisitos de transparência adicionais para os “modelos de IA com finalidade genérica”, por detrás dos quais se escondem sobretudo os modelos de base.

Modelos “Large Language”

Durante o moroso processo legislativo, a burocracia foi ultrapassada pela realidade sob a forma de modelos Large Language. Com o triunfo do ChatGPT em 2023, o mais tardar, tornou-se claro que a IA generativa também deve ser tida em conta na regulamentação. Na verdade, a Lei da IA quase ainda teria falhado à última da hora devido à controvérsia sobre até que ponto a regulamentação deveria ir.

Entre o risco elevado e a ausência de regulamentação, chegou-se a um acordo quase “a meio caminho” e formularam-se novos requisitos em matéria de transparência. Os modelos subjacentes são divididos em duas categorias: “Modelos de IA com finalidade genérica” e “Modelos de IA com finalidade genérica com risco sistémico”. Os critérios de classificação constam do novo Anexo XIII. O ponto central é a complexidade do modelo, medida em FLOPs (Floating Point Operations per second = operações de ponto flutuante por segundo). De forma escalonada, os fornecedores de modelos de base estão sujeitos a requisitos de transparência abrangentes.

Modelos Large Language no setor dos seguros

Estão atualmente a ser desenvolvidos modelos Large Language no setor dos seguros para uma vasta gama de aplicações, por exemplo na gestão do conhecimento. Na prática, não são utilizados modelos de base próprios, mas sim modelos de base existentes e disponíveis. Neste contexto, as próprias seguradoras não são, regra geral, afetadas por estas obrigações de transparência, antes pelo contrário, enquanto destinatárias das obrigações de divulgação impostas aos fornecedores de modelos de base até beneficiam delas.

Tudo isto não é tão grave assim?!

Em conclusão, constatamos que os seguros são afetados numa medida controlável (moderada) pela regulamentação da IA.

  • As aplicações de IA para a avaliação de riscos e a fixação de preços em relação a pessoas singulares no caso dos seguros de saúde e de vida são aplicações de alto risco e, por conseguinte, estão amplamente regulamentadas.
  • A comunicação baseada na IA (chatbots) com pessoas singulares está sujeita à obrigação de comunicar que a pessoa está a comunicar com uma IA.

Em contrapartida, o grande número de outras aplicações com as quais nos ocupamos diariamente insere-se na categoria quatro das aplicações para as quais não estão previstas regulamentações. Existe aqui a possibilidade de um autocompromisso voluntário, o que neste momento não é expectável, dada a extensa regulamentação que já existe no nosso setor.

msg insur:it fornece o mais alto nível de segurança para aplicações de IA

As aplicações de IA desenvolvidas até agora pelo msg insur:it (migração com suporte de IA, msg.ask:it, msg.claim:it pertencem à categoria quatro e, portanto, não estão abrangidas pela Lei da IA. Independentemente disso, as aplicações oferecem o mais alto nível de segurança e conformidade, de acordo com os requisitos regulamentares existentes no setor dos seguros. Se, no futuro, oferecermos aplicações de IA que estejam sujeitas à regulamentação da Lei da IA, garantiremos que estas estarão em conformidade com as regras, tanto no caso de aplicações de alto risco como no caso de disposições específicas em matéria de transparência.

 

 

QUER SABER MAIS?

Subscreva o nosso blogue e receba as atualizações.

Pode revogar o seu consentimento a qualquer momento.