Debate-se hoje nas Conferências de Lisboa o tema das mudanças relacionadas com a aceleração tecnológica, que reúne especialistas em diversas áreas. Um dos intervenientes é Pedro Saleiro, especialista em ética e tecnologia, doutorado pela Faculdade de Engenharia da Universidade do Porto em Aprendizagem de Máquinas e Recuperação de Informação. Em entrevista à Lusa, teceu algumas ideias sobre a revolução da inteligência artificial e comparou esta área de tensão, como o nuclear durante o século XX.

O especialista destaca a responsabilidade dos arquitetos que lidam com a inteligência artificial, apontando a sua necessidade de ética, comparando-os aos médicos que lidam com pacientes. "Já vi pessoas que dizem que são apenas técnicos, que lhes compete receber matrizes de dados e ficheiros, processá-los e mandá-los para outros", destaca. Para Pedro Saleiro, deverá haver uma certificação profissional na área da ciência dos dados.

“Não existe certificação profissional na área da ciência de dados. Um engenheiro civil ou um médico tem formação em Ética quando acede à sua Ordem profissional. Mas as pessoas que trabalham com dados não têm nenhuma certificação, não têm noção do impacto das decisões que estão a tomar. A sociedade tem que se adaptar a estas novas circunstâncias”, reforça.

Refere ainda que há nesta altura uma janela de oportunidade para a sociedade discutir as implicações éticas da inteligência artificial, sobretudo da IA genérica, que mimetiza o pensamento humano, uma área assumidamente de tensão, como o nuclear foi no século XX.

Comissão europeia quer regulamento sobre a IA

O seu pensamento está alinhado com as preocupações da Comissão Europeia, para que não hajam situações de descriminação, por parte dos assistentes virtuais ou chatbots nos novos serviços digitais. E para isso será necessário regulamento, como por exemplo, os consumidores estarem sempre informados quando estão a interagir com sistemas automáticos. Mas sobretudo dar acesso aos operadores humanos a capacidade de decisão e os utilizadores poderem pedir verificações e correções de decisões tomadas por sistemas automáticos geridos por IA.

Pedro Saleiro acusa as grandes empresas tecnológicas, como a Google e Facebook, de registar e explorar a pegada digital dos utilizadores de internet e redes sociais, monitorizando constantemente os seus gostos e anseios, recebendo os sinais que as pessoas lhes enviam quando interagem com os equipamentos, tais como os smartphones.

Ainda assim acredita que a maioria, 90-95% dos funcionários das tecnológicas têm boas intensos e bons valores, mas que se criaram estruturas de poder em que se torna difícil fazerem-se valer. "É interessante verificar que no ecossistema académico ou da indústria há uma certa discriminação contra as pessoas que trabalham nessas 'big tech', mas elas acreditam mesmo que podem ser um agente de mudança. Mas essas empresas são tão grandes que um engenheiro que lá trabalhe, por melhores intenções que tenha, acaba por ter um impacto reduzido em relação ao quadro maior", acrescentou.

A Comissão Europeia defende que as empresas devem ter estruturas que possam ser rapidamente acionadas para corrigir erros decididos automaticamente pela IA. E mais uma vez, manter a decisão humana soberana perante as opções tomadas automaticamente. Os humanos devem ter sempre a responsabilidade final e capacidade de alterar decisões impostas por sistemas ADM, sobretudo em questões médicas, legais, do sector bancário e outras.

Ética da sociedade deve refletir-se na IA

Para Pedro Saleiro, a democratização da tecnologia significa, na teoria, que qualquer pessoa pode começar a criar inteligência artificial e a colocar aplicações no mercado. E essas apps podem ter implicações e riscos éticos, tais como as “deep fakes”, de vídeos e imagens com pessoas mostradas a dizer ou a fazer algo que não aconteceu. Considera que introduzir ética nos sistemas que contam com IA cada vez mais sofisticada implica que haja o maior número possível de pessoas e pontos de vista envolvidos na construção de sistemas que vão tomar decisões. Decisões aplicadas a áreas distintas como o tratamento de dados, a saúde, a finança, veículos autónomos ou robótica.

Considerando que as máquinas vão “aprender”, o principal desafio é fazer os valores e desígnios éticos da sociedade refletirem-se na IA. Por isso defende que é necessária uma vigilância constante, porque os próprios humanos que desenvolvem IA também influenciam o seu comportamento no futuro.

O especialista dá o exemplo da tecnologia utilizada no sistema judicial norte-americano para sustentar que quando se constrói uma IA, esta não é mais que tentar replicar os padrões históricos. A ferramenta “avaliação de risco algorítmica” é utilizada em 60% dos tribunais de primeira instância para definir situações como fianças das pessoas detidas. Esse “fator de risco” é determinado pela reincidência do suspeito ou a sua falta de comparência em tribunal, por exemplo, que originam polémicas porque esses sistemas aprenderam alguma descriminação sistémica em relação aos afro-americanos e às pessoas de cor.

Se a sociedade for discriminatória, o algoritmo vai aprender e propagar essa mesma descriminação. Se a polícia detém mais pessoas de minorias étnicas, o algoritmo assume na sua aprendizagem que há potencial risco de criminalidade por parte de pessoas de cor. De forma quase inconsciente, a polícia faz mais patrulhamentos em bairros de pessoas pertencentes a minorias étnicas. Por isso, se não for dito explicitamente à IA que é necessário ter em conta a questão étnica, esta irá tratar os cidadãos de forma desigual.

E por isso, defende Pedro Saleiro, que os construtores dos sistemas necessitam de introduzir os tais “fatores de correção”. "Imaginemos que ia criar um sistema desses em Portugal e usava só a criminalidade das áreas metropolitanas para inferir para o país todo. Os dados são enviesados e nós corrigimos esse viés, introduzimos um contra-viés. Não se trata de manipular as pessoas, é manipular a amostra", explicou.

O especialista considera que existem competências fora da tecnologia que devem ser empregadas no caminho futuro da IA, não sendo necessário inventar nenhuma ética nova em específico. "A filosofia, o direito, as Humanidades têm a ver com o processo de tomada de decisão. Na 'República', de Platão, já há questões de ciência política inerentes, por exemplo, sobre o favorecimento de um ou outro grupo", apontou.

"Acredito na inteligência artificial como uma extensão de nós mesmos, não como um organismo autossuficiente”. Defende que a IA deve ser controlada por nós. E mais uma vez, fazendo a comparação com o nuclear, “acredito que, se até agora as coisas têm corrido relativamente bem em relação às armas nucleares, é possível que possam correr bem em relação à inteligência artificial. Mas há uma certa concentração de poder no desenvolvimento de inteligência artificial que me assusta um pouco. O paradigma tem sido aumentar o número de neurónios das redes. Por causa da quantidade de dinheiro necessário para isso, o caminho está nas mãos de muito poucos", considerou.