A inteligência artificial generativa, nomeadamente a tecnologia da OpenAI, o GPT, é um dos principais assuntos do ano, sobretudo a forma com está a afetar os negócios, empresas e utilizadores no geral. Desde a forma como a tecnologia GPT-4 está a mudar o trabalho ou como esta pode ser utilizada de forma ilícita, não passa ao lado das autoridades que já deixaram o alerta.

Ainda que se reconheçam as suas vantagens (e desvantagens), o treino da IA generativa está a levantar preocupações generalizadas. E foi publicada uma carta aberta, assinada por mais de mil nomes ligados a organizações e empresas a nível global, onde é pedido aos laboratórios de IA, tais como a OpenAI, que pausem os treinos de sistemas para lá do GPT-4.

A carta conta com mais de mil assinaturas, destacando-se nomes como Elon Musk (Tesla, SpaceX, Twitter), Steve Wozniak (cofundador da Apple) ou Evan Sharp (cofundador do Pinterest). A lista é extensa, com nomes ligados à tecnologia, comunidade científica, investigadores, académicos e professores, onde consta Luis Moniz Pereira, professor Emeritus da Universidade Nova de Lisboa.

O documento refere que os sistemas de IA podem colocar em risco a sociedade e a humanidade, segundo alguns estudos publicados, algo que os próprios laboratórios de investigação têm conhecimento das suas limitações. “A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deverá ser planeada e gerida com cuidado e recursos”, lê-se na carta, que acusa a exatamente a falta de planeamento e gestão. Isso resultou numa “corrida desenfreada dos laboratórios de IA para desenvolver e lançar mentes digitais cada vez mais poderosas que ninguém, nem mesmo os seus criadores, podem compreender, prever ou ter controlo”.

Entre as preocupações encontra-se a competição de tarefas gerais entre os sistemas de IA e os humanos. “Deveremos deixar que as máquinas encham os canais de informação com propaganda e mentiras? Deveremos desenvolver mentes não humanas que eventualmente possam ultrapassar-nos, tornar-nos obsoletos e substituir-nos? Devemos arriscar perder o controlo da nossa civilização?” Estas são algumas perguntas colocadas no documento, reforçando que tais decisões não devem ser delegadas a líderes tecnológicos não elegidos. “Os sistemas poderosos de IA devem apenas ser desenvolvidos quando estivermos confiantes de que os seus efeitos sejam positivos e os seus riscos possam ser geridos”.

É a própria OpenAI a declarar que “até certo ponto, pode ser importante obter uma análise independente antes do começo do treino de futuros sistemas, e para os esforços mais avançados, de concordar em limitar o ritmo de crescimento da computação utilizada na criação de novos modelos”. Os signatários concordam com a afirmação da criadora do GPT, salientando que “esse ponto é agora”.

Nesse sentido, é pedido aos laboratórios de IA que parem imediatamente, por pelo menos seis meses, qualquer treino de sistemas de inteligência artificial que sejam mais poderosos que o GPT-4. E essa pausa deve ser pública e verificável. E deve ter o envolvimento governamental, caso essa pausa não possa ser ativada rapidamente. Os especialistas independentes e os laboratórios de IA devem utilizar essa pausa para conjuntamente desenvolver e implementar protocolos de segurança para o design de modelos avançados, auditados de forma rigorosa.

Os signatários não pedem que se pause o desenvolvimento de IA no geral, mas que se “abrande” a perigosa corrida que está a acontecer, com modelos cada vez mais poderosos e imprevisíveis. É referido que a investigação de IA deve ser focada em tornar os sistemas atuais melhores, robustos, alinhados e transparentes.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.