À medida que a popularidade das soluções de inteligência artificial continua a crescer, aumentam também as preocupações acerca da tecnologia e, nos Estados Unidos, sete gigantes deste sector, incluindo OpenAI, Microsoft, Google e Meta, comprometeram-se a implementar medidas para torná-la mais segura.

Num comunicado divulgado pela Casa Branca, o Governo de Joe Biden indica que o compromisso feito por este conjunto de empresas, que inclui também a Amazon, a Anthropic e a Inflection, tem como base três princípios que devem ser fundamentais para o futuro da IA: proteção, segurança e confiança.

As empresas comprometeram-se a garantir a segurança dos seus produtos antes de os disponibilizarem ao público. Para tal, levarão a cabo um conjunto de avaliações de segurança, tanto externas como internas, partilhando informação acerca das soluções desenvolvidas com a indústria, governos, sociedade civil e academia.

O investimento em cibersegurança e em salvaguardas contra ameaças é outro dos compromissos feitos pelas tecnológicas, que terão também de facilitar a descoberta e divulgação de vulnerabilidades nos seus sistemas de IA por parte de entidades terceiras.

Estados Unidos: Empresas como a Microsoft e Google têm "dever moral" de proteger a sociedade dos perigos da IA
Estados Unidos: Empresas como a Microsoft e Google têm "dever moral" de proteger a sociedade dos perigos da IA
Ver artigo

Para assegurar que o público pode confiar na tecnologia, as empresas comprometem-se a desenvolver “mecanismos técnicos robustos” de modo a garantir que as pessoas sabem quando estão perante um conteúdo gerado por IA, como um sistema com “marcas de água”.

Além disso, as empresas terão de divulgar publicamente as capacidades, limitações e usos dos seus sistemas de IA, sem esquecerem os riscos de segurança e para a sociedade.

As tecnológicas comprometem-se também a dar prioridade à investigação acerca dos riscos societais da IA e a desenvolver e implementar sistemas avançados que ajudem a solucionar os desafios que a Humanidade enfrenta, da prevenção de doenças graves às alterações climáticas.

AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
AI Act: lei para regular inteligência artificial na UE com “luz verde” do Parlamento Europeu
Ver artigo

O compromisso marca um “passo crucial rumo ao desenvolvimento responsável de IA”, mas, nas palavras de Joe Biden, Presidente dos Estados Unidos, “há ainda muito trabalho para fazer em conjunto”. É por esse motivo que o Governo dos Estados Unidos está a preparar uma nova ordem executiva, tendo intenções de avançar com legislação apoiada a nível bipartidário.

Recorde-se que, do outro lado do Atlântico, o AI Act, o quadro legal europeu para regular a utilização de inteligência artificial na União Europeia, recebeu em junho a "luz verde" do Parlamento Europeu. Seguem-se as negociações com os Estados-Membros no Conselho da UE para decidir a versão final do AI Act, com o objetivo de chegar a um acordo até ao final deste ano.