Quando se fala em sistemas de inteligência artificial avançadas e o perigo que podem representar para a humanidade, a série de filmes Terminator vem sempre à mente. Apesar de se tratar de ficção científica, as empresas que trabalham em grandes modelos como o ChatGPT ou Gemini têm consciência de possíveis problemas que possam sair do controlo e sejam difíceis de mitigar.

Nesse sentido, 16 empresas assumiram compromissos voluntários para garantir um desenvolvimento seguro dos modelos avançados de IA. O pacto internacional foi estabelecido durante o AI Safety Summit, que decorreu na semana passada em Seoul, na Coreia do Sul e junta empresas como a Microsoft, Anthropic, Google, Amazon, Samsung, Meta, IBM e OpenAI.

Além das gigantes tecnológicas, outras empresas oriundas de países como os Estados Unidos, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos também assinaram os protocolos de segurança.

Entre as medidas, as fabricantes de modelos de IA concordaram em publicar os frameworks de segurança e a forma como medem os desafios ligados aos modelos, tais como a prevenção que estes sejam utilizados com más intenções, avança a CNBC. Foram estabelecidas as “linhas vermelhas” que definem o tipo de riscos associados aos sistemas de IA que sejam considerados intoleráveis, como por exemplo, o risco de ciberataques automatizados e armas biológicas.

Para responder a essas circunstâncias extremas, as empresas vão implementar aquilo que é conhecido como “Kill Switch”, medidas que terminam o desenvolvimento dos modelos de IA que não consigam dar a garantia de mitigação de riscos.

O Primeiro Ministro do Reino Unido, Rishi Sunak, presente nessa cimeira, assume a satisfação de ver as empresas líderes mundiais a assinarem estes compromissos de segurança da IA, além da transparência e responsabilidade nos planos.

Um grupo de participantes na cimeira destaca que ainda não está claro qual vai ser a eficácia deste compromisso, por faltar um acompanhamento legal associado ao acordo ou a definição de riscos específicos. Em carta aberta, foram feitas críticas à falta de regras formais. “A experiência mostrou que a melhor forma de enfrentar estes perigos é através de regulação e não autorregulação ou medidas voluntárias”, em resposta aos “compromissos” das empresas.

De recordar que já foi aprovado na União Europeia o IA Act, um regulamento para a Inteligência Artificial que começa a ser aplicado em dois anos. A legislação estabelece as regras para a utilização da tecnologia na Europa e que tem uma lógica baseada no risco, com multas para quem violar as regras.