Por enquanto, a Meta não vai lançar os seus modelos de inteligência artificial generativa mais avançados na Europa, na sequência de um pedido do regulador irlandês, que solicitou o adiamento da recolha de dados de utilizadores do Facebook e Instagram da região, para treino do modelo.

O pedido do regulador surge uma semana depois da apresentação de uma queixa pelo grupo ativista NOYB (Centro Europeu de Direitos Digitais) junto dos reguladores da proteção de dados em vários países europeus. O grupo alega que a recolha de dados não é explicitamente consentida pelos utilizadores e isso viola os princípios da legislação local.

“Estamos desapontados com o pedido da Comissão Irlandesa de Proteção de Dados [...] para adiar o treino dos nossos modelos de linguagem de grande dimensão (LLM) utilizando conteúdos públicos partilhados por adultos no Facebook e no Instagram” na Europa, refere um nota entretanto divulgada pela Meta.

Na mesma nota, a empresa sublinha que a deceção é maior porque já tinha incorporado feedback regulatório e as autoridades de proteção de dados europeias estavam informadas dessas alterações desde março. “Trata-se de um retrocesso para a inovação europeia, para a concorrência no desenvolvimento da IA e de mais atrasos na concretização dos benefícios da IA para os cidadãos europeus”.

A Meta diz-se confiante de que a sua abordagem a este tema “está em conformidade com as leis e regulamentos europeus” e sublinha que não é a única a treinar este tipo de modelos de IA na região, garantindo mesmo que é “mais transparente do que muitos dos nossos homólogos do sector”.

How to TEK: Não quer que o Facebook use as suas fotos para treinar a IA? Saiba como bloquear
How to TEK: Não quer que o Facebook use as suas fotos para treinar a IA? Saiba como bloquear
Ver artigo

A companhia promete continuar a trabalhar com as autoridades europeias para ultrapassar estes constrangimentos e poder disponibilizar na Europa o mesmo tipo de serviços que lança noutras regiões do globo. Além desta queixa, a empresa já estava a responder a preocupações idênticas levantadas pelo regulador britânico, que serão agora também endereçadas em maior detalhe. A tecnológica não deixa, no entanto, de aproveitar a oportunidade para evidenciar o impacto da decisão.

“Simplificando, sem incluir informações locais, só conseguimos oferecer aos utilizadores uma experiência de segunda categoria. Isto significa que, de momento, não podemos lançar o Meta AI na Europa”.

A queixa do NOYB foi submetida às autoridades de proteção de dados da Áustria, Bélgica, França, Alemanha, Grécia, Itália, Irlanda, Países Baixos, Noruega, Polónia e Espanha. O grupo acredita que deu o mote para o pedido do regulador irlandês e continua a dizer que as alterações feitas pela empresa à política de utilização dos seus serviços não chegam.

No início da semana passada, a Meta já tinha divulgado uma nota sobre os planos para trazer os seus novos serviços de IA para a Europa, explicando o que estava a fazer para garantir o cumprimento da legislação local. Aí indicava que, desde 22 de maio, enviou mais de dois mil milhões de notificações a utilizadores da região, através da app e email para explicar o que está a fazer. “Estas notificações contêm uma ligação para um formulário de objeção que dá às pessoas a oportunidade de se oporem a que os seus dados sejam utilizados nos nossos esforços de modelação de IA”.

Uma das questões sublinhadas na queixa do NOYB está precisamente no método usado para clarificar o interesse dos utilizadores em terem ou não os seus dados partilhados para este fim. A Meta preferiu, em vez de pedir o consentimento, solicitar aos utilizadores um bloqueio da autorização para a utilização dos seus dados (opt-out), quando o RGPD obriga à utilização de sistemas de “opt-in”. Outro problema está no facto de, aparentemente, após a introdução dos dados nos modelos não haver opção para os retirar, o que significa ir contra o “direito ao esquecimento”, previsto também no RGPD.

Os novos serviços de IA da Meta baseiam-se no Llama, o modelo linguístico de grande dimensão mais recente da companhia e no novo assistente de IA da tecnológica. As mensagens privadas trocadas no Facebook e Instagram não serão usadas para treinar o Llama, garante a Meta. Só está em causa a utilização de dados públicos.

Para a NOYB não deixam de estar em causa "anos de publicações pessoais, imagens privadas ou dados de localização online para uma 'tecnologia de IA' indefinida que pode recolher dados pessoais de qualquer fonte e partilhar qualquer informação com 'terceiros' indefinidos”.