Pontos-chave do Regulamento Europeu relativo à Inteligência Artificial
Desde a condução autónoma de veículos ou a vigilância em massa por reconhecimento facial, até um mero processo de seleção de emprego, a Inteligência Artificial está a tornar-se cada vez mais relevante em grandes sectores do mercado. Por esta razão, embora a tecnologia esteja a ser desenvolvida nos EUA, a União Europeia é pioneira na implementação de um regulamento sobre esta matéria.
Este regulamento é o primeiro quadro jurídico da UE para a IA e tem como principal objetivo garantir que esta seja desenvolvida de forma segura, ética e responsável, primeiro na Europa e depois a nível mundial. Deve ficar claro que o objeto do presente regulamento não é a tecnologia de Inteligência Artificial em si, mas a sua aplicação.
A Europa, os Estados Unidos e o Processo de IA de Hiroshima
No final de outubro de 2023, os líderes do G7 em Hiroshima adotaram um conjunto de princípios orientadores para o desenvolvimento de sistemas avançados de IA, que são os mesmos que os da União Europeia (Segurança, Transparência, Igualdade, Responsabilidade), com os princípios adicionais de procurar o benefício da sociedade e promover os direitos humanos. Em todo o caso, o Processo de Hiroshima pretende ser um manual de conduta para os criadores de sistemas de Inteligência Artificial, e não um conjunto de regras.
A União Europeia já demonstrou anteriormente a sua vocação legislativa a nível internacional, com leis sobre a proteção dos dados dos utilizadores, por exemplo. No entanto, quando se trata de Inteligência Artificial, a Europa choca com uma realidade inquestionável: o desenvolvimento tecnológico da IA provém dos Estados Unidos, um país que também aspira a ser a referência na governação global desta tecnologia. De facto, o Presidente Biden assinou uma ordem executiva em 30 de outubro de 2023 que obriga as empresas tecnológicas a comunicar ao governo qualquer desenvolvimento de IA que possa “representar um risco grave para a segurança nacional”.
Princípios do Direito da Inteligência Artificial
A lei europeia sobre a Inteligência Artificial, que na realidade se chama Regulamento que estabelece regras harmonizadas no domínio da Inteligência Artificialestabelece uma série de princípios gerais que todos os sistemas de IA devem respeitar:
-
Segurança: A utilização da IA deve ser segura e deve evitar pôr em risco os direitos fundamentais das pessoas através da manipulação, abuso ou utilização incorreta da tecnologia. Os sistemas de IA devem estar sujeitos a mecanismos de monitorização e controlo para garantir a sua utilização segura.
-
Transparência: Os utilizadores devem ser capazes de compreender como funciona um sistema de IA e como são tomadas as decisões. Os sistemas devem fornecer informações sobre os seus dados de treino, os seus algoritmos e os seus resultados. Os utilizadores devem poder contestar as decisões tomadas por um sistema de IA.
-
Igualdade: Os sistemas não devem discriminar com base na raça, género, etnia, religião, orientação sexual ou qualquer outra caraterística protegida. Devem ser concebidos para facilitar a inclusão e o respeito pela diversidade.
-
Responsabilidade: Os responsáveis pelos sistemas de IA devem ser responsabilizados pelo seu funcionamento. Os sistemas de IA devem estar sujeitos à lei e às regras de responsabilidade.
Ambiente de teste controlado
LA filosofia subjacente à legislação europeia sobre a regulamentação da IA baseia-se fundamentalmente na prudência. Por esta razão, o desenvolvimento da Inteligência Artificial requer um ambiente de teste controlado, uma “caixa de areia” (sandbox, em inglês) para uma experimentação segura antes de colocar os sistemas de IA à disposição do utilizador.Nestes ambientes de segurança, que podem ser físicos ou virtuais, os programadores podem experimentar diferentes parâmetros para identificar potenciais problemas e corrigi-los a tempo, mesmo antes de entrarem em produção. Os testes abrangem diferentes sistemas de IA. Por exemplo:
- Reconhecimento de imagens
- Reconhecimento de voz
- Aprendizagem automática
- Processamento de linguagem natural
- Melhoria da segurança: Podem ajudar a identificar e corrigir potenciais vulnerabilidades de segurança nos sistemas de IA.
- Maior fiabilidade: Ajudam a garantir que os sistemas de IA funcionam corretamente em condições adversas.
- Melhor desempenho: Os ambientes de teste controlados facilitam a otimização dos sistemas de IA.
- Menos preconceitos: Ajudam a identificar e a corrigir possíveis preconceitos negativos que possam afetar o utilizador devido à sua etnia, idade ou outros fatores.
Regulamentação da Inteligência Artificial de acordo com o nível de risco
O regulamento que está a ser preparado pela União Europeia baseia-se em quatro categorias de risco na utilização de sistemas de inteligência artificial. Por outras palavras, o que está a ser regulamentado não é a tecnologia, mas os riscos potenciais das diferentes utilizações que lhe são dadas pelos diferentes modelos de Inteligência Artificial modelos de Inteligência Artificial. Alguns exemplos podem ser vistos no quadro abaixo.
|
Níveis de risco |
Exemplos práticos |
Risco inaceitável |
* Reconhecimento facial utilizado para vigilância em massa * Sistemas automatizados de tomada de decisões utilizados para fornecer acesso a cuidados de saúde ou educação * Controlo autónomo de armas |
Risco Elevado |
* Atribuição discriminatória de créditos ou empréstimos * Sistemas de seleção de pessoal que são utilizados para discriminar no local de trabalho. * Sistemas de condução autónoma em meio urbano. |
Risco Moderado |
* Recomendação de produtos ou serviços de forma enganosa ou manipuladora * Publicidade personalizada utilizada para manipular as emoções * Sistemas de deteção de fraudes que são utilizados de forma discriminatória |
Risco Limitado |
* Tradução automática. * Recomendações de músicas ou filmes. * Sistemas de otimização de rotas. |
Os exemplos acima referem-se aos perigos da IA para os utilizadores em geral. Mas a lista de riscos aumenta se falarmos de segurança nacional, ou da forma como a IA afeta certos sectores profissionais, desde tradutores a atores e guionistas. Curiosamente, os filmes sobre Inteligência Artificial podem parecer mais reais hoje do que nunca.
Gigas é um grupo internacional, fundado em 2011, especializado na prestação de serviços de comunicações convergentes e integradas e de serviços cloud para empresas. Com nove centros de dados na Europa e na América Latina, e escritórios em oito países, Gigas tornou-se especialista em oferecer "Tranquilidade como um Serviço" aos seus clientes. A segurança e a confiança que Gigas gera em torno dos seus clientes é o que realmente nos distingue.