Gigas Blog

Pontos-chave do Regulamento Europeu relativo à Inteligência Artificial

Written by Santi Escudero | 8/mar/2024 11:00:00

Desde a condução autónoma de veículos ou a vigilância em massa por reconhecimento facial, até um mero processo de seleção de emprego, a Inteligência Artificial está a tornar-se cada vez mais relevante em grandes sectores do mercado. Por esta razão, embora a tecnologia esteja a ser desenvolvida nos EUA, a União Europeia é pioneira na implementação de um regulamento sobre esta matéria.

Este regulamento é o primeiro quadro jurídico da UE para a IA e tem como principal objetivo garantir que esta seja desenvolvida de forma segura, ética e responsável, primeiro na Europa e depois a nível mundial. Deve ficar claro que o objeto do presente regulamento não é a tecnologia de Inteligência Artificial em si, mas a sua aplicação.

A Europa, os Estados Unidos e o Processo de IA de Hiroshima

No final de outubro de 2023, os líderes do G7 em Hiroshima adotaram um conjunto de princípios orientadores para o desenvolvimento de sistemas avançados de IA, que são os mesmos que os da União Europeia (Segurança, Transparência, Igualdade, Responsabilidade), com os princípios adicionais de procurar o benefício da sociedade e promover os direitos humanos. Em todo o caso, o Processo de Hiroshima pretende ser um manual de conduta para os criadores de sistemas de Inteligência Artificial, e não um conjunto de regras.
 
A União Europeia já demonstrou anteriormente a sua vocação legislativa a nível internacional, com leis sobre a proteção dos dados dos utilizadores, por exemplo. No entanto, quando se trata de Inteligência Artificial, a Europa choca com uma realidade inquestionável: o desenvolvimento tecnológico da IA provém dos Estados Unidos, um país que também aspira a ser a referência na governação global desta tecnologia. De facto, o Presidente Biden assinou uma ordem executiva em 30 de outubro de 2023 que obriga as empresas tecnológicas a comunicar ao governo qualquer desenvolvimento de IA que possa “representar um risco grave para a segurança nacional”.

Princípios do Direito da Inteligência Artificial

A lei europeia sobre a Inteligência Artificial, que na realidade se chama Regulamento que estabelece regras harmonizadas no domínio da Inteligência Artificialestabelece uma série de princípios gerais que todos os sistemas de IA devem respeitar:

  • Segurança: A utilização da IA deve ser segura e deve evitar pôr em risco os direitos fundamentais das pessoas através da manipulação, abuso ou utilização incorreta da tecnologia. Os sistemas de IA devem estar sujeitos a mecanismos de monitorização e controlo para garantir a sua utilização segura.

  • Transparência: Os utilizadores devem ser capazes de compreender como funciona um sistema de IA e como são tomadas as decisões. Os sistemas devem fornecer informações sobre os seus dados de treino, os seus algoritmos e os seus resultados. Os utilizadores devem poder contestar as decisões tomadas por um sistema de IA.

  • Igualdade:  Os sistemas não devem discriminar com base na raça, género, etnia, religião, orientação sexual ou qualquer outra caraterística protegida. Devem ser concebidos para facilitar a inclusão e o respeito pela diversidade.

  • Responsabilidade: Os responsáveis pelos sistemas de IA devem ser responsabilizados pelo seu funcionamento. Os sistemas de IA devem estar sujeitos à lei e às regras de responsabilidade.

Ambiente de teste controlado

LA filosofia subjacente à legislação europeia sobre a regulamentação da IA baseia-se fundamentalmente na prudência. Por esta razão, o desenvolvimento da Inteligência Artificial requer um ambiente de teste controlado, uma “caixa de areia” (sandbox, em inglês)  para uma experimentação segura antes de colocar os sistemas de IA à disposição do utilizador. 
 
Nestes ambientes de segurança, que podem ser físicos ou virtuais, os programadores podem experimentar diferentes parâmetros para identificar potenciais problemas e corrigi-los a tempo, mesmo antes de entrarem em produção. Os testes abrangem diferentes sistemas de IA. Por exemplo: 
 
  • Reconhecimento de imagens
  • Reconhecimento de voz
  • Aprendizagem automática
  • Processamento de linguagem natural
A utilização de um ambiente de teste controlado no desenvolvimento da Inteligência Artificial tem muitas vantagens no que diz respeito à prevenção de riscos e à correção de falhas na tecnologia. Por um lado, promove-se um aumento da segurança, da fiabilidade e do desempenho da IA. Por outro lado, os preconceitos discriminatórios são reduzidos. Eis alguns exemplos das vantagens dos ambientes de teste controlados:

  • Melhoria da segurança: Podem ajudar a identificar e corrigir potenciais vulnerabilidades de segurança nos sistemas de IA.

  • Maior fiabilidade: Ajudam a garantir que os sistemas de IA funcionam corretamente em condições adversas.

  • Melhor desempenho: Os ambientes de teste controlados facilitam a otimização dos sistemas de IA.

  • Menos preconceitos: Ajudam a identificar e a corrigir possíveis preconceitos negativos que possam afetar o utilizador devido à sua etnia, idade ou outros fatores.

Regulamentação da Inteligência Artificial de acordo com o nível de risco 

O regulamento que está a ser preparado pela União Europeia baseia-se em quatro categorias de risco na utilização de sistemas de inteligência artificial. Por outras palavras, o que está a ser regulamentado não é a tecnologia, mas os riscos potenciais das diferentes utilizações que lhe são dadas pelos diferentes modelos de Inteligência Artificial modelos de Inteligência Artificial. Alguns exemplos podem ser vistos no quadro abaixo.

Níveis de risco

Exemplos práticos

 

Risco inaceitável

* Reconhecimento facial utilizado para vigilância em massa

* Sistemas automatizados de tomada de decisões utilizados para fornecer acesso a cuidados de saúde ou educação

* Controlo autónomo de armas

 

Risco Elevado

* Atribuição discriminatória de créditos ou empréstimos

* Sistemas de seleção de pessoal que são utilizados para discriminar no local de trabalho.

* Sistemas de condução autónoma em meio urbano.

 

Risco Moderado

* Recomendação de produtos ou serviços de forma enganosa ou manipuladora

* Publicidade personalizada utilizada para manipular as emoções

* Sistemas de deteção de fraudes que são utilizados de forma discriminatória

 

Risco Limitado

* Tradução automática.

* Recomendações de músicas ou filmes.

* Sistemas de otimização de rotas.

 

Os exemplos acima referem-se aos perigos da IA para os utilizadores em geral. Mas a lista de riscos aumenta se falarmos de segurança nacional, ou da forma como a IA afeta certos sectores profissionais, desde tradutores a atores e guionistas. Curiosamente, os filmes sobre Inteligência Artificial podem parecer mais reais hoje do que nunca.

Gigas é um grupo internacional, fundado em 2011, especializado na prestação de serviços de comunicações convergentes e integradas e de serviços cloud para empresas. Com nove centros de dados na Europa e na América Latina, e escritórios em oito países, Gigas tornou-se especialista em oferecer "Tranquilidade como um Serviço" aos seus clientes. A segurança e a confiança que Gigas gera em torno dos seus clientes é o que realmente nos distingue.