Nick Bostrom, filósofo e professor na Universidade de Oxford, afirmou recentemente que a inteligência artificial representa um perigo bem maior e mais imediato para a humanidade.

"As alterações climáticas não são a maior mudança a que vamos assistir este século. O resultado deste fenómeno dificilmente será positivo, mas se os desenvolvimentos a que estamos a assistir no sector da IA derem mau resultado, as consequências serão bem piores do que as das alterações climáticas. A IA pode ajudar muito a humanidade, mas o extremo oposto também pode acontecer", disse Bostrom em conversa com o Business Insider.

O filósofo é um dos pensadores mais mediáticos deste campo. O livro "Superintelligence: Paths, Dangers, Strategies", que é da sua autoria, já foi referenciado publicamente por Bill Gates e Elon Musk por várias vezes. No entanto, e apesar dos repetidos alertas, Bostrom é cuidadoso nas comparações com as alterações climáticas. "A razão pela qual a inteligência artificial é frequentemente retratada nos media como sendo um robot diabólico é porque isso dá uma boa história. Visualmente falando, os robots são mais convincentes do que um chip numa caixa negra. Mas não é a maleficência o problema. É a possibilidade de a IA ser indiferente aos objetivos da humanidade", afirma.

Europa define 7 "mandamentos" para uma Inteligência Artificial mais ética
Europa define 7 "mandamentos" para uma Inteligência Artificial mais ética
Ver artigo

Todas as entidades inteligentes, sejam elas humanas ou artificiais, têm objetivos, mesmo quando são pré-programadas. Até as IAs mais simples, como as que são utilizadas nos termómetros digitais, têm o objetivo de medir a temperatura, sucessivamente. O receio de Bostrom é que as IAs se tornem demasiado competentes na persecução dos seus objetivos, ao ponto de poderem prejudicar a humanidade para garantir o cumprimento de metas.

Em 2003, Bostrom exemplificou esta premissa com uma história. Falou de uma IA que tinha o objetivo de maximizar a produção de clipes. Se esta IA fosse capaz de se reprogramar, tal como já acontece com alguns sistemas da Google, é possível que acabasse por se tornar tão inteligente ao ponto de inovar e criar novas estratégias para a maximização da produção. Se levarmos a situação ao extremo, podemos pensar num cenário em que a IA transforma a Terra numa fábrica gigante de clipes, num processo gradual que pouco dará de si durante o caminho.

A ideia parece idiota, mas assim é porque a mesma não condiz com os objetivos do humano comum. Mas teoricamente falando, o chip está apenas a seguir o processo lógico para o qual foi desenvolvido. Ao tornar-se excecionalmente bom na sua tarefa, a IA pode acabar por prejudicar a humanidade, não por maldade, mas por não conseguir distinguir o certo e o errado.

"A IA pode ter um impacto muito negativo na sociedade, por exemplo, quando seleciona notícias que confirmam os preconceitos que certos grupos têm contra determinada minoria, ou quando atuam como ferramentas de vigilância", diz Bostrom. E não é preciso viajarmos para o futuro para verificarmos exemplos deste último cenário. Quando se debate se as tecnológicas têm o poder, ou não, para vender tecnologias de reconhecimento facial a agências públicas, falamos de um caso potencial de vigilância que pode moldar substancialmente a forma como vivemos.

tek superintelligence

Para o professor, o desafio está em programar a IA de acordo com os objetivos da humanidade. "A primeira série de desafios vai ser técnica, no sentido em que temos de encontrar formas de desenvolver inteligência artificial de forma controlada", disse ao BI. "Quando (e se) resolvermos essa questão, o nosso próximo problema vai ser social, porque temos de criar um mundo focado em servir o bem comum", concluiu.

Com base nestas afirmações, a questão que se coloca é se as grandes tecnológicas estão a desenvolver IA com base nesta premissa do "bem comum". "Já falei com várias pessoas de grandes tecnológicas que estão preocupadas em criar IA segura e compatível com os objetivos da humanidade, mas também já fiquei com o sentimento de que eles não sabem bem como o fazer", remata.

Newsletter

Receba o melhor do SAPO Tek. Diariamente. No seu email.

Na sua rede favorita

Siga-nos na sua rede favorita.