Apesar de toda a sua utilidade, a Inteligência Artificial enfrenta também desafios éticos e são várias as situações em que a tecnologia acabou por demonstrar-se mais tendenciosa do que devia, perpetuando a discriminação racial ou de género. No palco virtual do Building the Future 2021, Kwame Ferreira, CEO da Impossible Labs, e João Freitas, Chief Technology Officer (CTO) da DefinedCrowd, deram a conhecer as suas perspetivas acerca da forma como a tecnologia se pode tornar mais justa e até a ajudar a construir um mundo mais sustentável.

Ainda antes de dar a conhecer algumas das soluções desenvolvidas pela Impossible, Kwame Ferreira começa por explicar que existem atualmente uma série de “Wicked problems”, vistos como problemas a que o mundo está a tentar encontrar uma resposta: da pobreza às alterações climáticas.

A equipa da Impossible, que quer também ajudar a resolver os problemas, deparou-se com uma questão importante. O processo de “design thinking” está a “matar” o planeta, isto porque coloca o indivíduo no centro de uma forma egoísta, sem ter consideração pelas necessidades dos outros.

De acordo com o responsável, o mundo tem vindo a “beneficiar” desta forma de pensamento ao mesmo tempo que põe em causa, por exemplo, o meio-ambiente, com soluções que acabam por causar mais problemas a longo-prazo e que terão um impacto muito negativo nas nossas vidas.

Building The Future 2021
Kwame Ferreira na sessão "AI ETHICS | Creativity in The Age of Automation"

Assim, a Impossible propõe uma forma de diferente de pensar: “planet centric design”. O objetivo é contrariar as tendências anteriores e tentar encontrar um equilíbrio. “Convertemos os problemas em objetivos”, alinhando-os, por exemplo, com os objetivos de desenvolvimento sustentável das Nações Unidas, indica o responsável.

“Quando pensamos desta forma, deparamo-nos com uma nova lógica, passando de uma economia baseada no extrativismo para uma outra mais regenerativa”, sublinha Kwame Ferreira.

Segundo o CEO da Impossible, uma coisa é certa, é quase impossível vivermos a nossa vida sem tecnologia. “Ninguém vai passar a viver numa cabana no meio do nada” e, assim, é necessário encontrarmos uma simbiose entre Homem e máquinas.

Várias dos projetos desenvolvidas pela empresa seguem a lógica de simbiose, como a Stand, uma solução pensada para ser um “personal trainer” tecnológico que ajuda os utilizadores a tornarem-se mais saudáveis, dando-lhes dicas sobre postura correta.

Na área da Saúde, a Impossible está a trabalhar com empresas, como a Roche, que se dedicam à pesquisa de tratamentos contra o cancro, com vista a encontrar formas mais rápidas e eficientes de diagnosticar os pacientes. Passando para o mundo empresarial, o Nikabot é um um chatbot que ajuda os colaboradores de empresas a fazerem uma melhor gestão do seu tempo, de forma a serem mais produtivos.

a Bond, um dos seus produtos mais populares, quer melhorar as relações amorosas. Através da pulseira inteligente, os utilizadores conseguem “sentir” o toque da outra pessoa e, com ela, a empresa ambiciona ter 100 milhões de relações mais saudáveis e felizes até 2025.

A Inteligência Artificial pode ser verdadeiramente ética?

O quão imparcial pode ser um modelo de machine learning? A utilização de algoritmos e data sets tendenciosos é uma temática que tem vindo a marcar o panorama da IA e são vários os investigadores que se têm vindo a debater para encontrar formas de tornar a tecnologia mais ética.

Na sessão “Fairness, Bias & Ethics in AI”, João Ferreira começa por diferenciar três conceitos, que se interligam no desenvolvimento da IA e cuja compreensão é essencial. Quando falamos de imparcialidade, ou “fairness”, estamos a referir-nos a um conceito social que se pode alterar consoante determinadas culturas. Já a tendenciosidade, ou “bias”, é vista de um ponto de vista mais matemático e a ética é um conceito normativo, uma sistematização filosófica do que está certo ou errado.

Bulding The Future 2021
João Ferreira na sessão "AI ETHICS | Fairness, Bias & Ethics in AI"

No que toca ao primeiro dos conceitos, um sistema de IA imparcial é um que mesmo tipo de performance independentemente do tipo de utilizador. Aqui, aspetos como género e raça não devem ser usados para definir os seus algoritmos, caso contrário, teremos sistemas que perpetuam situações discriminatórias.

A questão apresenta-se como um desafio no desenvolvimento de IA e o CTO da DefinedCrowd elucida que quando a parcialidade é introduzida logo na fase inicial de um projeto, consertar a situação quando já se encontra na etapa de testes torna-se muito mais complicado.

Já a tendenciosidade pode acontecer tanto nos algoritmos como nas bases de dados. Se as informações utilizadas para compor um data set são já “enviesadas”, o sistema criado vai ser tendencioso por definição, uma vez que ele próprio não é capaz de reconhecer situações problemáticas.

Centrando-se na ética, João Ferreira indica que os especialistas da área devem ter em conta os princípios do PAPA (Privacy, Accuracy, Property, and Accessibility) Framework, no processo de recolha de dados, lembrando, por exemplo, as pessoas que dão o seu consentimento para participar no mesmo precisam de ser compensadas apropriadamente.

Neste âmbito, a acessibilidade deve ser uma prioridade, de forma a assegurar uma distribuição equitativa dos dados, se bem que a seleção dos participantes e das informações deve guiar-se por factos, não por conceitos construídos socialmente, como o género, aponta João Ferreira.

É possível então ter uma abordagem mais justa e centrada nos problemas que o mundo enfrenta? O CTO da DefinedCrowd afirma que sim, lembrando que os especialistas necessitam de seguir estratégias guiadas pela imparcialidade, de manter-se alerta em relação aos dados que possam ser tendenciosos ou que não se baseiam em factos.

O SAPO TEK está a acompanhar o Building the Future e pode ver outras notícias da conferência aqui.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.