A Intel divulgou um vídeo onde levanta a ponta do véu sobre o trabalho de investigação que tem vindo a desenvolver na área da inteligência artificial. Lama Nachman, do Intel Human & AI Research Systems Lab fala nos últimos avanços nas interfaces cérebro-computador e dá um exemplo do potencial da tecnologia para ler ondas cerebrais em pessoas sem outras capacidades de interação. 

Pensar num item ou numa letra é o suficiente para ativar um software e abrir um mundo de oportunidades de comunicação para quem não consegue mover-se, exemplifica, admitindo que esta é uma das áreas onde a empresa está a trabalhar e sublinhando que a IA encerra oportunidades para pessoas em todas as áreas. 

A informação no vídeo deixa perceber muito pouco sobre os projetos da Intel nesta área e menos ainda sobre as inovações em que a empresa pode estar a trabalhar, uma vez que este tipo de interação tem vindo a ser explorado ao longo dos últimos anos por várias empresas e projetos e há avanços significativos já a registar. 

No entanto, uma das ideias frisadas no vídeo é o foco da investigação da gigante dos processadores que, como ali sublinha a interlocutora, “passa por tentar encontrar oportunidades para colocar a IA a assistir humanos nos mais diversos aspetos da sua vida”, com um propósito. 

“Estamos realmente a tentar perceber como pode a IA ajudar a construir um futuro melhor para a humanidade”, refere Lama Nachman, deixando uma ideia que domina cada vez mais os debates sobre IA. O princípio de uma IA ética e orientada para o “bem”, algo que pode ainda levar tempo a assumir-se como o principal motor dos desenvolvimentos nesta área. 

Um estudo do Pew Research Center e da Elon University antecipa que até 2030 a ética tende a não se assumir como o princípio por excelência nos desenvolvimentos em torno da IA. 

Na pesquisa que auscultou 602 representantes de empresas, investigadores, reguladores e ativistas defende-se que até 2030 a IA será usada sobretudo para otimizar lucros e em sistemas de controlo de pessoas e que um consenso em torno dos temas da ética será difícil de alcançar até lá. Desde logo, porque o conceito de ética na IA continua a ser muito diferente de empresa para empresa. 

Nesta pesquisa, 68% dos inquiridos defenderam que os princípios éticos de desenvolvimento, orientados para o bem comum, não serão aplicados à maior parte dos sistemas de IA até 2030. 32% são mais otimistas e defendem o contrário. 

Bruxelas “aperta o cerco” aos sistemas de IA de alto risco. Quais são as medidas da nova proposta de lei?
Bruxelas “aperta o cerco” aos sistemas de IA de alto risco. Quais são as medidas da nova proposta de lei?
Ver artigo

Vint Cerf foi um dos participantes no estudo e defende que, mesmo com algum esforço de boa-fé para adotar uma IA ética, não há garantias: “O machine learning está a dar os primeiros passados e a nossa capacidade para prever diferentes tipos de falhas e as suas consequências ainda é limitado”. 

A ética é uma das grandes preocupações da Comissão Europeia em relação ao uso da IA na região. Os primeiros esforços de regulação na UE nesta matéria vão centrar-se neste tópico, como antecipa o documento já divulgado.  

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.