Depois de uma carta aberta apelar a laboratórios especializados que parem o treino de sistemas que sejam mais poderosos do que o GPT-4, surge agora uma declaração conjunta, assinada por CEOs de empresas como OpenAI ou Google DeepMind, além de especialistas da área, que alerta para o risco de extinção devido à inteligência artificial. 

No preâmbulo da declaração, publicada pelo Center for AI Safety, é detalhado que a discussão acerca dos “riscos importantes e urgentes” da tecnologia tem vindo a aumentar. No entanto, “pode ser difícil expressar preocupação acerca dos riscos mais severos dos sistemas de IA avançados”. 

Apesar de ser sucinta, com apenas 22 palavras em inglês, a declaração ambiciona ultrapassar esta barreira e abrir a discussão, servindo também para dar conta do crescente número de especialistas e figuras públicas que querem que os riscos mais severos da tecnologia sejam levados a sério.

“Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, à semelhança de outros riscos à escala societal, como pandemias e guerras nucleares”, indica a declaração.

Entre os signatários da declaração incluem-se Sam Altman, CEO da OpenAI, e Demis Hassabis, CEO da Google DeepMind, mas também Dario Amodei, CEO da Anthropic, e Eric Horvitz, Chief Scientific Officer da Microsoft.

Estados Unidos: Empresas como a Microsoft e Google têm "dever moral" de proteger a sociedade dos perigos da IA
Estados Unidos: Empresas como a Microsoft e Google têm "dever moral" de proteger a sociedade dos perigos da IA
Ver artigo

Ainda no início de maio, os responsáveis da OpenAI e Anthropic, que se juntaram aos da Alphabet e Microsoft, reuniram-se com Kamala Harris, vice-presidente dos EUA, para falar sobre as preocupações e questões levantadas pela inteligência artificial.

Em destaque na lista de signatários estão também Geoffrey Hinton e Yoshua Bengio, investigadores que, em 2018, ganharam um Turing Award pelo seu trabalho na área da IA. Luís Moniz Pereira, professor emérito da Universidade Nova de Lisboa, é outra das figuras a assinar a declaração, depois de ter assinado também a carta aberta em março.

Anteriormente, Sam Altman tinha realçado perante o Congresso dos EUA que a intervenção do governo seria essencial para mitigar os riscos dos sistemas de IA, propondo a criação de uma entidade que tenha o poder para atribuir e retirar licenças para o desenvolvimento de modelos de larga escala.

Bruxelas quer acordo sobre Inteligência Artificial ainda em 2023 mas só será aplicado em 2025
Bruxelas quer acordo sobre Inteligência Artificial ainda em 2023 mas só será aplicado em 2025
Ver artigo

Já do outro lado do Atlântico, o Parlamento Europeu deu recentemente mais um passo tendo em vista a aprovação do AI Act, o novo quadro legal europeu para regular a inteligência artificial, passando a incluir medidas mais “apertadas” para serviços como o ChatGPT. A Comissão Europeia espera, este ano, um acordo na União Europeia relativamente ao AI Act, se bem que admita que as novas regras só venham a entrar em vigor em 2025.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.