A Intel divulgou um vídeo onde levanta a ponta do véu sobre o trabalho de investigação que tem vindo a desenvolver na área da inteligência artificial. Lama Nachman, do Intel Human & AI Research Systems Lab fala nos últimos avanços nas interfaces cérebro-computador e dá um exemplo do potencial da tecnologia para ler ondas cerebrais em pessoas sem outras capacidades de interação.
Pensar num item ou numa letra é o suficiente para ativar um software e abrir um mundo de oportunidades de comunicação para quem não consegue mover-se, exemplifica, admitindo que esta é uma das áreas onde a empresa está a trabalhar e sublinhando que a IA encerra oportunidades para pessoas em todas as áreas.
A informação no vídeo deixa perceber muito pouco sobre os projetos da Intel nesta área e menos ainda sobre as inovações em que a empresa pode estar a trabalhar, uma vez que este tipo de interação tem vindo a ser explorado ao longo dos últimos anos por várias empresas e projetos e há avanços significativos já a registar.
No entanto, uma das ideias frisadas no vídeo é o foco da investigação da gigante dos processadores que, como ali sublinha a interlocutora, “passa por tentar encontrar oportunidades para colocar a IA a assistir humanos nos mais diversos aspetos da sua vida”, com um propósito.
“Estamos realmente a tentar perceber como pode a IA ajudar a construir um futuro melhor para a humanidade”, refere Lama Nachman, deixando uma ideia que domina cada vez mais os debates sobre IA. O princípio de uma IA ética e orientada para o “bem”, algo que pode ainda levar tempo a assumir-se como o principal motor dos desenvolvimentos nesta área.
Um estudo do Pew Research Center e da Elon University antecipa que até 2030 a ética tende a não se assumir como o princípio por excelência nos desenvolvimentos em torno da IA.
Na pesquisa que auscultou 602 representantes de empresas, investigadores, reguladores e ativistas defende-se que até 2030 a IA será usada sobretudo para otimizar lucros e em sistemas de controlo de pessoas e que um consenso em torno dos temas da ética será difícil de alcançar até lá. Desde logo, porque o conceito de ética na IA continua a ser muito diferente de empresa para empresa.
Nesta pesquisa, 68% dos inquiridos defenderam que os princípios éticos de desenvolvimento, orientados para o bem comum, não serão aplicados à maior parte dos sistemas de IA até 2030. 32% são mais otimistas e defendem o contrário.
Vint Cerf foi um dos participantes no estudo e defende que, mesmo com algum esforço de boa-fé para adotar uma IA ética, não há garantias: “O machine learning está a dar os primeiros passados e a nossa capacidade para prever diferentes tipos de falhas e as suas consequências ainda é limitado”.
A ética é uma das grandes preocupações da Comissão Europeia em relação ao uso da IA na região. Os primeiros esforços de regulação na UE nesta matéria vão centrar-se neste tópico, como antecipa o documento já divulgado.
Pergunta do Dia
Em destaque
-
Multimédia
Protagonistas da Terra e do Espaço em imagens espetaculares escolhidas pela NASA -
App do dia
Balatro parece um simples jogo de cartas. Mas tome bem atenção às regras -
Site do dia
Snapbio: uma plataforma para criar identidades digitais com links personalizados -
How to TEK
Torne o smartphone Android mais inteligente trocando o Google Assistant pelo Gemini
Comentários