A Inteligência Artificial (IA) chegou às nossas vidas, transformando a forma como vivemos e trabalhamos. No entanto, o surgimento da IA levanta dúvidas sobre como será o nosso novo futuro, deixando no ar questões sobre segurança e ética: “Estas tecnologias podem ser prejudiciais para a sociedade? Como garantir a transparência da investigação privada? Como garantir que os sistemas são justos e respeitam os direitos humanos? Que aplicações podem ser mais prejudiciais para os cidadãos?”
Perguntas que levaram os 27 países da União Europeia (UE) a adotar, este ano, a primeira legislação totalmente dedicada à IA.
Qual será o impacto das novas regras na investigação?
A nova legislação sublinha o compromisso político de promover o investimento em investigação e inovação no domínio da IA, resultando num forte impacto nos diferentes programas de I&I da UE, como o Horizonte Europa e a Europa Digital. Espera-se, também, que as parcerias público-privadas existentes evoluam, para incluir as novas prioridades políticas em torno da IA.
A Comissão Europeia e o Parlamento Europeu desempenham um papel importante na definição dos futuros convites à apresentação de propostas, ao abrigo destes programas, e das futuras parcerias neste domínio. A cooperação direta com estas instituições da UE, torna-se fundamental para garantir que nós, intervenientes na investigação, nos mantenhamos informados e possamos participar nas diferentes iniciativas.
Os cidadãos estão protegidos?
Parcialmente. O regulamento aborda a complexidade, a parcialidade e o comportamento dos sistemas de IA, para garantir que são compatíveis com os direitos humanos. Ajuda a estabelecer uma lista não exaustiva de «aplicações de IA de alto risco», que podem ser proibidas, no entanto, não define penas em caso de abuso.
A Comissão Europeia convidou todos os países da UE a estabelecerem procedimentos para avaliar a conformidade da utilização destas aplicações de alto risco, bem como, potenciais sanções. Estas medidas serão fundamentais para proteger os cidadãos ao longo do desenvolvimento da tecnologia de IA.
As chamadas "aplicações de IA de alto risco" incluem o uso de IA para influenciar comportamentos, pontuação social administrada pelo governo, ou identificação biométrica remota em tempo real (ou seja, para detetar emoções), em espaços acessíveis ao público.
Outras práticas controversas que estão sob o olhar atento dos reguladores, incluem o uso de IA para ferramenta de digitalização de Curriculum Vitae, que classifica candidatos a emprego ou sistemas de IA, destinados a serem usados para estabelecer prioridade no envio de serviços de primeira resposta de emergência, incluindo bombeiros e assistência médica.
O que vem a seguir?
As novas regras entrarão em vigor nos próximos dois anos e são vinculativas para todos os países da UE. Será criado um novo gabinete de IA no seio da Comissão Europeia, para ajudar as empresas e os prestadores de serviços de investigação, entre outros, a cumprir a nova legislação.
É, agora, crucial que a Europa evite tornar-se demasiado dependente de países terceiros, no que respeita às principais tecnologias de IA. Alcançar os grandes players tecnológicos dos EUA, exigirá recursos significativos e esforços combinados.
Continuaremos a acompanhar de perto as discussões sobre IA, lado a lado com os reguladores, para garantir que desenvolvemos a tecnologia de IA mais ética e de primeira classe para a nossa economia e sociedade.
Por: Talita Soares
EU Strategy & Policy Advisor | Internationalization Department CCG/ZGDV Institute