O projeto Web-Enabled Simulation (WES) usa um novo método de construção de simulações de larga escala, altamente realísticas, de redes sociais complexas, e tem aplicação direta nas áreas da proteção, segurança e privacidade, como explicou Mark Harman num encontro com um grupo restrito de jornalistas. Ainda é um projeto de investigação criado no FAIR (Facebook Artificial Intelligence Research)  mas o professor da UCL e investigador no Facebook tem confiança que o WES pode ser útil em várias áreas de aplicação, tornando o Facebook mais seguro mas também alagando o seu uso a sectores como o desenvolvimento de agentes para jogos.

Para já a simulação está a ser usada na plataforma do Facebook, usando machine learning para treinar bots e simular comportamentos de pessoas reais. Foram criados grupos de "bots inocentes" e outros de "bots malvados" que exploram as falhas no sistema para terem comportamentos pouco recomendáveis. Os bots são treinados para interagir entre eles, dentro de comunidades de agentes inteligentes, usando a mesma infraestrutura que os utilizadores, mas sem nunca agirem com as pessoas reais. Podem enviar mensagens, fazer publicações, pedidos de amizade, fazer pesquisas e até tentar comprar produtos que são proibidos no Facebook, como drogas e armas.

“Ainda estamos em ambiente de investigação mas o objetivo é que o WES possa ajudar a identificar e resolver bugs na plataforma, melhorar os serviços e detetar potenciais problemas de integridade antes que afetem as pessoas reais que usam a plataforma”, explica Mark Harman.

Por enquanto este "exército" de bots é treinado para imitar comportamentos que os investigadores sabem que podem acontecer na plataforma, mas a ideia é evoluir e o investigador diz que "Em teoria, e na prática, os bots podem fazer coisas que nunca vimos antes. Isso é um dos objetivos porque na verdade queremos estar à frente dos comportamentos nocivos, e antecipar estes movimentos em vez de continuarmos atrás do que acontece", afirmou.

Homicídios, violações, suicídios e torturas: o Facebook Live parece não ter filtros
Homicídios, violações, suicídios e torturas: o Facebook Live parece não ter filtros
Ver artigo

A prevenção de comportamentos negativos é uma das preocupação do Facebook que tem investido em várias áreas para moderar comentários e posts, impedir publicações que violem as regras de não violência e uso de pornografia, entre outras. Mas nem sempre tem sido bem sucedido e não faltam exemplos de violação de regras, em maior ou menor escala, que têm gerado críticas e problemas, expondo a rede social a sanções por parte das autoridades.

O investigador defende que neste tipo de testes o software tem uma capacidade de adaptação e modificação de comportamento que é ideal para antecipar possíveis mudanças. “Estamos a trabalhar na prevenção”, justifica, adiantando que na simulação há bots bons e bots maus, que atacam outros bots, à semelhança do que acontece na utilização da plataforma real do Facebook onde alguns utilizadores têm comportamentos negativos.

Sem querer detalhar que tipo de comportamentos são estudados e identificados, Mark Harman defende que há vários desafios científicos envolvidos nestas simulações, e que a WE combina várias tecnologias que vão do search-based software engineering e machine learning a linguagens de programação, sistemas de multiagentes, IA de jogos e gameplay assistido por IA. E o facto de usar a plataforma de dados real do Facebook é “fascinante”, afirma, destacando o poder de aplicar esta simulação em Big Data e com o poder estatístico enorme de testar comportamentos que isso traz.

O ambiente em que os bots se movimentam foi criado especificamente para o projeto e é o WW, uma versão reduzida da WWW (World Wide Web). É um ambiente simulado e controlado do Facebook, mas que usa a plataforma de produção da rede social. Aqui os bots têm liberdade para agir como utilizadores normais, e até contornar as regras de segurança impostas. Desta forma consegue-se antecipar potenciais comportamentos nocivos.

Cinco anos de Facebook AI Research: o que esperar do futuro? Ajudar no combate à COVID-19
Cinco anos de Facebook AI Research: o que esperar do futuro? Ajudar no combate à COVID-19
Ver artigo

Mark Harman admite que esta é mais uma das formas como o Facebook tenta tornar a sua plataforma mais segura, e que no futuro irá integrar outras ferramentas e tecnologias que a rede social tem desenvolvido. Mas nunca vai substituir totalmente os moderadores atuais. “Pode aliviar o trabalho dos humanos mas nunca substituí-los”, explica. Mas o impacto pode ser grande na área da prevenção, já que estes bots vão criar situações que outras simulações nunca conseguiriam antecipar.

Mesmo assim há limitações. "Conseguimos simular comportamentos negativos e danosos, mas não a intenção", afirma.

Para acelerar o desenvolvimento da plataforma de simulação WES o Facebook está à procura de ajuda da comunidade científica e já detalhou os progressos da simulação e do protótipo WW. Foi lançado um convite a propostas da comunidade para quem quiser contribuir com novas ideias para o WES e o WW e já foram recebidos 85 contributos. “O interesse e abrangência das propostas são um testemunho da forma como a agenda de pesquisa do WES toca tantos tópicos importantes e excitantes de investigação e áreas de desafios intelectuais”, defende o investigador.

Newsletter

Receba o melhor do SAPO Tek. Diariamente. No seu email.

Notificações

Subscreva as notificações SAPO Tek e receba a informações de tecnologia.

Na sua rede favorita

Siga-nos na sua rede favorita.