“Temos de regular esta tecnologia”. Biden assina ordem executiva para regular a IA
por Abílio dos Reis (Texto) | 31 de Outubro, 2023
O Presidente dos EUA, Joe Biden, assinou uma ordem executiva que visa diretamente o futuro da Inteligência Artificial (IA), naquele que é o primeiro passo para regular a IA nos Estados Unidos. A medida mais “sonante” é a que obriga as empresas a partilhar os testes das suas ferramentas com o governo. No entanto, temas como a privacidade, os direitos civis, a proteção dos consumidores e os direitos dos trabalhadores também são tidos em conta.
“Para formalizar a promessa da IA e evitar o risco, temos de regular esta tecnologia”, afirmou o Presidente Joe Biden, quando assinou esta segunda-feira uma ordem executiva que estabelece novas normas e regras para a inteligência artificial. Tal como todas as ordens executivas, “tem força de lei”, de acordo com a CNBC.
A ordem tem oito objetivos: criar novas normas para a garantir a segurança nacional; proteger a privacidade dos americanos; promover a equidade e os direitos civis; defender os consumidores, os doentes e os estudantes; apoiar os trabalhadores e promover a inovação e a concorrência; promover a liderança dos EUA nas tecnologias de IA; e, por último, garantir a utilização responsável e eficaz da tecnologia pelo governo.
E se por agora a ordem visa só o que se passa “em casa”, a administração assegura que vai trabalhar com os seus aliados e parceiros para criar uma estrutura internacional “forte” para supervisionar o desenvolvimento e utilização da IA.
O documento com as todas as nuances e detalhes pode ser consultado neste link oficial. Mas pegando no resumo do The Guardian, os pontos que mais se destacam são:
- As empresas que estão ou venham a desenvolver modelos de IA que possam representar uma ameaça à segurança nacional, à segurança económica ou à saúde e segurança dos norte-americanos, devem partilhar os resultados dos seus testes de segurança com o governo;
- O National Institute of Standards and Technology (NIST), vai criar orientações para se fazerem testes de segurança. Ou seja, vão criar o guia para que equipas especializadas (“red-team testing”) se ponham no papel dos mal-intencionados para se certificarem que as ferramentas não viram o ChatGPT do crime;
- Serão emitidas orientações oficiais para que exista uma marca de água nos conteúdos produzidos por IA — para reduzir o risco de danos causados por fraudes e deep fakes. Ou seja, vão criar uma maneira de detetar mais facilmente a manipulação de imagens para não criar confusão das pessoas;
- Os direitos civis também foram contemplados; se há vários anos que estudos ditam que os algoritmos são falíveis e aprofundam preconceitos e discriminação, a ordem executiva quer garantir que isto não acontece. Seja num caso de justiça ou num arredamento de uma casa;
- Vão ser desenvolvidas novas normas para atenuar a ameaça de os sistemas de IA ajudarem a criar armas biológicas.
Um passo anunciado e pedido
Sobre a medida mais sonante, a que obriga as empresas a partilhar os testes das suas ferramentas com o governo, a Casa Branca explica que é uma maneira de garantir que os sistemas de IA são seguros e fiáveis “antes de as empresas os tornarem públicos”. A par, administração vai produzir um relatório sobre os impactos da inteligência artificial no mercado laboral e identificar formas de reduzir os problemas.
Esta ordem executiva vem no seguimento de um acordo voluntário que a administração Biden já tinha alcançado com 15 grandes empresas norte-americanas e é o primeiro grande conjunto de regras estabelecido para regular a tecnologia que muitos acreditar definir o futuro – algo repetidamente pedido por muitos atores ligados à indústria.
Porquê agora? Algumas tecnologias de IA já existem há mais de 50 anos e muitas delas já fazerem parte do nosso quotidiano. Só que graças à explosão de popularidade de ferramentas como o ChatGPT, e à nova capacidade de processamento destes sistemas e aos seus algoritmos cada vez mais eficazes, a IA saltou para a ribalta e tomou conta do panorama diário.
Se a tecnologia tem um potencial tremendo? Tem. Se é capaz de impulsionar áreas que vão da saúde aos negócios? Também. No entanto, também traz riscos. Veja-se o caso da IA não regulada (ao contrário dos medicamentos e outros fármacos) que já entrou em muitos gabinetes médicos norte-americanos. Já para não falar dos direitos humanos e à própria democracia ou até da falta de lei para a responsabilidade. Em caso de acidente, quem é responsável pelos danos causados: utilizador, fabricante ou programador? É por tudo isto que se pedia uma atuação rápido dos estados e governos.
Hoje, os EUA averiguaram alguns destes problemas através desta ordem executiva. Ou seja, o primeiro passo está dado. Mas como disse um diretor da Federação dos Cientistas Americanos ao Politico, falta agora ver quem é que vai pagar a implementação destas novas regras e depois como é que se vão implementar. De acordo com a ordem executiva, as novas diretrizes terão de ser executadas num prazo de 90 dias a um ano.
Na Europa, também já se trabalha há algum tempo para fazer o mesmo, tendo a Comissão Europeia proposto o primeiro quadro regulamentar da União Europeia (UE) para a IA já em 2021. Mais recentemente, em junho, o Parlamento Europeu adotou a sua posição de negociação sobre a legislação em matéria de inteligência artificial, sendo esperado que em breve os países da UE discutam a forma final da lei.