É possível fazer uma “pausa” na corrida à Inteligência Artificial?
por The Next Big Idea | 3 de Abril, 2023
Foi redigida e lançada, por vários investigadores de Inteligência Artificial (IA), uma carta aberta apelando aos laboratórios de todo o mundo que interrompam o desenvolvimento de sistemas de IA em larga escala. A carta, publicada pela organização sem fins lucrativos Future of Life Institute, aponta que os laboratórios estão presos numa corrida frenética para desenvolver e implementar sistemas demasiado imprevisíveis e possivelmente incontroláveis.
Os sistemas de IA estão cada vez mais dotados de uma inteligência capaz de competir com os humanos e isto pode representar riscos para a sociedade e humanidade, que vão além daquilo que imaginávamos.
Em novembro de 2022 foi exibido ao mundo o ChatGPT, uma ferramenta criada pela OpenAI, que é uma organização que se dedica à investigação e desenvolvimento de Inteligência Artificial. O ChatGPT é alimentado por um algoritmo sofisticado que, tal como outros algoritmos, recorre a enormes quantidades de dados textuais, que lhe permitem responder a pedidos de forma realista e até mesmo humana.
Não tardou a que praticamente todos os grandes nomes do mundo tecnológico tentassem lançar a sua versão do sistema, uns com as mesmas características e outros a apontar para mais. A Microsoft com um investimento de 10 mil milhões de dólares na OpenAI, a Google com o seu próprio serviço de conversação, ainda experimental, de IA a que chamou de Bard, entre muitos outros. Nos quatro meses que passaram desde o lançamento que mudou o mundo, já foi lançado um novo sistema, baseado no ChatGPT, mas que promete mais.
O GPT-4 é o mais recente avanço de IA que já está a expandir a sua área de influência pelo mundo. Este tem a capacidade de resolver problemas com uma maior precisão e é mais criativo e colaborativo do que nunca. É capaz de gerar, editar e renovar conteúdo junto dos utilizadores de forma a ajudar nas tarefas dos mesmos. As suas capacidades abrangem um pouco de tudo, desde escrita criativa e/ou técnica, composição de canções, escrita de guiões, entre outras. Mas quando ficaremos satisfeitos?
Esta carta aberta é um pedido aos laboratórios de IA para que estes parem o mais rápido possível, durante pelo menos 6 meses, qualquer tipo de desenvolvimento de sistemas mais avançados do que o GPT-4. Entre alguns dos assinantes estão Elon Musk, CEO da SpaceX, Tesla e Twitter, Steve Wozniak, co-fundador da Apple e Jaan Tallinn, co-fundador do Skype, mas neste pedido quase desesperado, mais de 3000 pessoas já assinaram a carta aberta. Os apoiantes pretendem conseguir uma pausa pública e verificável e reconhecem que o pedido só faz sentido se todos os atores chave cumprirem com a sua parte.
A Inteligência Artificial, cada vez mais avançada, representa uma mudança profunda na nossa vida e no nosso planeta. Esta não deve, nem pode ser encarada de ânimo leve pelo que deve ser planeada e gerida, contudo, a rapidez que existe no desenvolvimento e financiamento de novos sistemas não é proporcional ao planeamento e gestão.
Não é segredo que os sistemas de IA se estão a tornar numa competição direta para muitos cargos desempenhados, unicamente, por humanos, pelo menos até agora e, por isso, temos que nos questionar sobre o que estamos dispostos a arriscar. As respostas às perguntas que o desenvolvimento deste tipo de sistemas levanta, segundo os assinantes da carta aberta, não devem estar nas mãos de líderes tecnológicos que não foram eleitos. A continuação do progresso em IA só deve acontecer quando estivermos confiantes de que as consequências serão maioritariamente positivas e quaisquer riscos que possam surgir sejam controláveis, algo que ainda não acontece.
A proposta
A ideia é que os laboratórios de Inteligência Artificial utilizem a pausa para criar e implementar um conjunto de protocolos de segurança para que a conceção e desenvolvimento de IA mais avançada possa ser feita de forma segura. É proposto que a execução destes protocolos seja rigorosamente supervisionada por peritos externos e independentes, para que seja cumprido o objetivo de um mínimo de segurança garantida. Aquilo que se pretende não é o fim do desenvolvimento de IA no geral, apenas um momento de pausa e reflexão.
Em simultâneo, os criadores de Inteligência Artificial devem trabalhar lado a lado com os decisores políticos, de forma a acelerar o desenvolvimento de autoridades reguladoras novas unicamente dedicadas à IA.
Ao publicar a carta, a Future of Life Institute pretende que, para além da reflexão em relação aos protocolos anteriormente mencionados, as pessoas reconheçam tudo o que já foi alcançado no mundo da IA. A rapidez em que nos estamos a mover não nos deixa olhar em volta e perceber tudo o que já foi concretizado e que há uns anos não passava de um sonho.
Através desta proposta, o mundo poderá desfrutar do futuro próspero que está a ser construído com a IA e colher as recompensas do trabalho feito até agora, enquanto são desenhados estes novos sistemas e protocolos, dando também à sociedade uma oportunidade de se adaptar. Recentemente, a Goldman Sachs estimou que a implementação de sistemas de Generative AI como o ChatGPT podiam levar ao crescimento do PIB Mundial em 7%, mas deixará mais de 300 milhões de trabalhadores numa situação incerta.
A própria OpenAI chamou à atenção para a inevitabilidade de se ter de proteger contra os perigos da IA, sendo que a empresa expressou a potencial necessidade de revisão dos futuros sistemas de IA para garantir que estes cumprem as normas de segurança.