A inteligência artificial já tem regras na Europa. Farão todas sentido?
por Miguel Magalhães (Texto) | 30 de Setembro, 2024
No âmbito do Data Makers Fest, Gabriele Mazzini, arquiteto e co-autor da legislação europeia para a inteligência artificial, foi ao Porto explicar as suas implicações para as empresas e os desafios de implementação em cada Estado-Membro.
Desde que foi anunciado, muito se tem dito e escrito sobre o “AI Act” da União Europeia. O que é, afinal? Mais um exemplo da excessiva regulação do Velho Continente? Uma medida de proteção para utilizadores à semelhança do RGPD? Um documento redigido por burocratas que pouco conhecimento têm sobre o funcionamento de empresas ou organizações que trabalham com inteligência artificial?
Nos últimos cinco anos, esta nova framework esteve a ser desenvolvida por uma equipa liderada pelo italiano Gabriele Mazzini, que na semana passada foi um dos keynote speakers do Data Makers Fest, conferência tecnológica organizada no Porto e focada (como o nome indica) em dados e na sua utilização. Num evento marcado por apresentações de algoritmos, de KPIs e de melhores práticas para recolha e análise de dados, Mazzini foi o outlier, fazendo uma introdução ao “AI Act” e explicando a uma sala repleta de engenheiros, data analysts e developers, como é que a legislação poderia impactar o seu dia-a-dia.
A seguir à sua sessão, estive à conversa com Gabriele Mazzini com o objetivo de ficar a conhecer melhor não só o documento oficial e os bastidores do seu desenvolvimento, mas também o homem que liderou todo o processo. Nota importante: Mazzini já não está na Comissão Europeia (é associado do MIT) e pode agora partilhar a sua perspetiva única sobre de alguns destes temas.
Quem é Gabriele Mazzini?
Sempre que alguém é escolhido para um cargo de alta responsabilidade, é natural olharmos para o seu percurso para percebermos se tem as competências necessárias para o desempenhar da melhor forma. Mazzini tem um background académico e profissional na área do Direito com forte ligação ao setor tecnológico:
- Pode praticar advocacia tanto em Itália como nos EUA; passou vários anos a trabalhar em startups; desempenhou alguns cargos na Comissão Europeia, tendo escrito um paper sobre como é que a inteligência artificial poderia impactar a lei europeia, antes de se juntar à taskforce do “AI Act”.
- “Em 2019, quando escrevi o paper, o meu foco principal era em quem na responsabilidade civil relativamente à IA. Se um drone atingisse alguém ou se um carro autónomo causasse um acidente. Além disso, havia ainda várias componentes éticas por explorar em legislações como a de proteção do consumidor, de privacidade, de produtos e perceber se elas eram suficientes para a emergência da IA”, explica.
Nos bastidores do AI Act
O “AI Act” foi uma das iniciativas-chave de Ursula Von der Leyen assim que passou a liderar a Comissão Europeia a partir de 2019. No discurso de programa ao Parlamento Europeu, prometeu ter no final dos primeiros 100 dias da sua governação uma primeira proposta para regular a inteligência artificial. Quem é que iria desenvolver essa proposta? O grupo liderado por Mazzini, precisamente. Apesar de já haver um grupo de trabalho de 50 pessoas que tinha feito bastante investigação sobre o tema, o investigador considera que o tempo dado não só foi curto, como a própria elaboração do documento não era o primeiro passo natural.
“No meu paper, eu introduzo a ideia de criar primeiro um sistema, não necessariamente uma nova legislação. A Comissão precisava de um sistema interno para pôr as peças a funcionar e colocar as pessoas a colaborar com as diferentes legislações existentes porque a IA acaba por ser transversal. Só assim seria possível encontrar falhas, e depois sim, perceber então que tipo de legislação seria necessária. A decisão de Von der Leyen foi diferente e começámos logo a trabalhar numa nova legislação”, conta Mazzini.
No contexto europeu, há três passos principais para uma nova lei ser aprovada. Primeiro, a Comissão desenha uma proposta e tem várias reuniões internas até concordar com uma primeira versão da mesma. Depois, o documento é apresentado ao Parlamento Europeu e ao Conselho Europeu que terão equipas a dar as suas notas e alternativas. Esta etapa é especialmente demorada, não só porque no Parlamento terá de haver um acordo entre diferentes áreas políticas e países, mas também porque a Presidência do Conselho Europeu muda de seis em seis meses, o que faz com que as prioridades mudem consoante a liderança de um novo Estado-Membro. Finalizadas as negociações, a lei é publicada com uma cronologia de implementação comum para todos os países.
- No caso do AI Act, a primeira proposta oficial foi apresentada pela Comissão Europeia em abril de 2021. A versão final acordada entre Comissão, Parlamento e conselho ficou fechada em dezembro de 2023.
- Porquê 2 anos e meio? Em dezembro de 2022, o lançamento de um tal de ChatGPT e o subsequente aparecimento de uma série de tecnologias de IA generativa levou a que vários stakeholders exigissem a integração de medidas que lhes dessem algum enquadramento legal.
“Desde 2021, que já havia um conhecimento de Modelos de Processamento de Linguagem Natural no Conselho Europeu durante as Presidências Eslovena, Francesa e Checa. A tensão [sobre a IA generativa] era que o Conselho não queria regular a tecnologia por si só, até porque acaba por ser a componente de um produto, mas sim regular as situações de risco em que estes sistemas podiam ser utilizados”, partilha Gabriele Mazzini.
A estrutura final do AI Act
Na sua essência, a legislação é composta por duas partes: uma onde são identificados os diferentes cenários de risco em que a IA pode ser utilizada e os requisitos legais para organizações que operem nesses contextos; outra, focada em “General Purpose AI Systems”, com condições particulares para tecnologias de IA generativa.
Quais são os cenários de risco:
- Sistemas de IA proibidos, todos aqueles que tenham na base a exploração de vulnerabilidades ligadas a idade, género, raça; categorização através de sistemas biométricos; criação de indicadores de “social scoring”, entre outros.
- Sistemas de IA de alto risco, são os mais abordados na legislação e com mais exigência de “compliance” por parte de organizações na recolha, análise e utilização de dados em infraestruturas essenciais da sociedade como a Defesa, a Saúde, Educação, Emprego, entre outras.
- Sistema de IA de risco limitado, que incluem os chatbots e deepfakes, por exemplo, e obrigações de informações aos utilizadores finais de que estão a interagir com esse tipo de tecnologias.
- Sistemas de IA de risco mínimo, que, por exemplo, incluíam até 2021, as aplicações de videojogos que utilizavam IA no desenvolvimento e gameplay. Tem novas nuances com o capítulo dedicado à “IA generativa”.
Quais são os desafios no futuro?
Segundo Gabriel Mazzini, embora se tente criar leis abrangentes para várias indústrias, riscos e avanços tecnológicos futuros, é inevitável que surjam novos desafios durante a implementação destas leis. Eis alguns exemplos
- Falta expertise para aplicar a lei. “A maior parte dos Estados poderão ter algumas dificuldades porque, no final do dia, é uma questão de competências que são raras haver nas administrações públicas em dados e machine learning. Os salários não são comparáveis e poderá haver no início alguma sub-implementação, e não será possível fazer tração de todas as situações.”
- Quem decide o quê. “Os diferentes cenários de risco são regulados por cada Estado-Membro, e os sistemas General Purpose AI regulados pela Comissão. Cada Estado-Membro terá liberdade para atribuir poderes a uma ou mais autoridades para implementar a lei. Dependendo da forma como isto é feito, poderão haver tensões internas em algumas decisões”.
- Europa vs o resto. “A ideia não é colocar as nossas empresas em desvantagem, porque as regras são iguais para todas as empresas que decidam operar no mercado europeu. Na prática, se és uma empresa europeia, o teu primeiro mercado, as primeiras relações que vais estabelecer são na Europa, e os teus sistemas IA terão de respeitar o ‘AI Act’. Uma empresa semelhante na China ou nos EUA não terá de cumprir essas regras, cresce no seu mercado doméstico, desenvolve produto, ganha escala e quando vem para Europa pode decidir ajustar-se numa fase de crescimento diferente”.
- Atualidade da lei, quando começar a ser aplicada em 2026. “É difícil dizer. Espero que esteja, o maior desafio será mesmo o capítulo sobre os modelos de General Purpose AI. Queremos que, independentemente da tecnologia de IA que seja utilizada, da sua arquitetura e das funções que desempenhe, haja um sistema de governança para a mesma”.
Subscreve a nossa newsletter NEXT, onde todas as segundas-feiras podes ler as melhores histórias do mundo da inovação e das empresas em Portugal e lá fora.