Desde a condução autónoma de veículos ou a vigilância em massa por reconhecimento facial, até um mero processo de seleção de emprego, a Inteligência Artificial está a tornar-se cada vez mais relevante em grandes sectores do mercado. Por esta razão, embora a tecnologia esteja a ser desenvolvida nos EUA, a União Europeia é pioneira na implementação de um regulamento sobre esta matéria.
Este regulamento é o primeiro quadro jurídico da UE para a IA e tem como principal objetivo garantir que esta seja desenvolvida de forma segura, ética e responsável, primeiro na Europa e depois a nível mundial. Deve ficar claro que o objeto do presente regulamento não é a tecnologia de Inteligência Artificial em si, mas a sua aplicação.
No final de outubro de 2023, os líderes do G7 em Hiroshima adotaram um conjunto de princípios orientadores para o desenvolvimento de sistemas avançados de IA, que são os mesmos que os da União Europeia (Segurança, Transparência, Igualdade, Responsabilidade), com os princípios adicionais de procurar o benefício da sociedade e promover os direitos humanos. Em todo o caso, o Processo de Hiroshima pretende ser um manual de conduta para os criadores de sistemas de Inteligência Artificial, e não um conjunto de regras.
A União Europeia já demonstrou anteriormente a sua vocação legislativa a nível internacional, com leis sobre a proteção dos dados dos utilizadores, por exemplo. No entanto, quando se trata de Inteligência Artificial, a Europa choca com uma realidade inquestionável: o desenvolvimento tecnológico da IA provém dos Estados Unidos, um país que também aspira a ser a referência na governação global desta tecnologia. De facto, o Presidente Biden assinou uma ordem executiva em 30 de outubro de 2023 que obriga as empresas tecnológicas a comunicar ao governo qualquer desenvolvimento de IA que possa “representar um risco grave para a segurança nacional”.
A lei europeia sobre a Inteligência Artificial, que na realidade se chama Regulamento que estabelece regras harmonizadas no domínio da Inteligência Artificialestabelece uma série de princípios gerais que todos os sistemas de IA devem respeitar:
Segurança: A utilização da IA deve ser segura e deve evitar pôr em risco os direitos fundamentais das pessoas através da manipulação, abuso ou utilização incorreta da tecnologia. Os sistemas de IA devem estar sujeitos a mecanismos de monitorização e controlo para garantir a sua utilização segura.
Transparência: Os utilizadores devem ser capazes de compreender como funciona um sistema de IA e como são tomadas as decisões. Os sistemas devem fornecer informações sobre os seus dados de treino, os seus algoritmos e os seus resultados. Os utilizadores devem poder contestar as decisões tomadas por um sistema de IA.
Igualdade: Os sistemas não devem discriminar com base na raça, género, etnia, religião, orientação sexual ou qualquer outra caraterística protegida. Devem ser concebidos para facilitar a inclusão e o respeito pela diversidade.
Responsabilidade: Os responsáveis pelos sistemas de IA devem ser responsabilizados pelo seu funcionamento. Os sistemas de IA devem estar sujeitos à lei e às regras de responsabilidade.
O regulamento que está a ser preparado pela União Europeia baseia-se em quatro categorias de risco na utilização de sistemas de inteligência artificial. Por outras palavras, o que está a ser regulamentado não é a tecnologia, mas os riscos potenciais das diferentes utilizações que lhe são dadas pelos diferentes modelos de Inteligência Artificial modelos de Inteligência Artificial. Alguns exemplos podem ser vistos no quadro abaixo.
Níveis de risco |
Exemplos práticos |
Risco inaceitável |
* Reconhecimento facial utilizado para vigilância em massa * Sistemas automatizados de tomada de decisões utilizados para fornecer acesso a cuidados de saúde ou educação * Controlo autónomo de armas |
Risco Elevado |
* Atribuição discriminatória de créditos ou empréstimos * Sistemas de seleção de pessoal que são utilizados para discriminar no local de trabalho. * Sistemas de condução autónoma em meio urbano. |
Risco Moderado |
* Recomendação de produtos ou serviços de forma enganosa ou manipuladora * Publicidade personalizada utilizada para manipular as emoções * Sistemas de deteção de fraudes que são utilizados de forma discriminatória |
Risco Limitado |
* Tradução automática. * Recomendações de músicas ou filmes. * Sistemas de otimização de rotas. |
Os exemplos acima referem-se aos perigos da IA para os utilizadores em geral. Mas a lista de riscos aumenta se falarmos de segurança nacional, ou da forma como a IA afeta certos sectores profissionais, desde tradutores a atores e guionistas. Curiosamente, os filmes sobre Inteligência Artificial podem parecer mais reais hoje do que nunca.
Gigas é um grupo internacional, fundado em 2011, especializado na prestação de serviços de comunicações convergentes e integradas e de serviços cloud para empresas. Com nove centros de dados na Europa e na América Latina, e escritórios em oito países, Gigas tornou-se especialista em oferecer "Tranquilidade como um Serviço" aos seus clientes. A segurança e a confiança que Gigas gera em torno dos seus clientes é o que realmente nos distingue.