Por Miguel Oliveira (*)

O ano de 2024 foi marcado por avanços significativos na Inteligência Artificial (AI), transformando não apenas a forma como interagimos com a tecnologia, mas também levantando questões fundamentais sobre ética, supervisão e autonomia das “máquinas”. A ideia da IA de se tornar ferramenta complementar para ser agente autónomo redefiniu o papel destas tecnologias, desencadeando debates sobre agência, fiabilidade e delegação de competências.

A democratização dos modelos de linguagem de grande escala (LLMs) consolidou o seu lugar como ferramenta central em processos, não só de análise, mas também no processo de tomada de decisão. Estes modelos não só simplificaram tarefas, como também começaram a ser utilizados como criadores de conteúdo, redatores técnicos e assistentes na geração de hipóteses científicas. A capacidade dos LLMs em superar especialistas humanos em áreas específicas abriu debates sobre a validação e auditoria contínua das suas respostas. A introdução de prompts emocionais e estratégias de auto-monitorização nos modelos revelou-se essencial para melhorar a transparência e reduzir vieses cognitivos nas respostas fornecidas.

No setor da educação, assistimos a debates sobre o uso de telemóveis e restrições de internet em sala de aula. Enquanto algumas escolas adotaram políticas mais restritivas, outras apostaram em plataformas digitais suportadas por IA para personalizar o ensino. O uso de IA no ensino irá pôr à prova a abordagem dos dois sigmas de Bloom em oferecer experiências de aprendizagem mais adaptadas, replicando os benefícios de uma tutoria individualizada. No entanto, estas soluções trazem consigo novas preocupações sobre privacidade e uso de dados.
Na área da saúde mental, as taxas de ansiedade e depressão motivaram o desenvolvimento de (mais) plataformas digitais capazes de monitorizar comportamentos e propor intervenções personalizadas. Apesar do potencial destas soluções para expandir o acesso a cuidados psicológicos, permanecem os desafios relacionados com o equilíbrio entre eficiência tecnológica e contacto humano.

Se 2024 foi um ano de transição, 2025 apresenta-se como o período em que estas transformações deverão consolidar-se. Espera-se o surgimento de agentes sintéticos ainda mais autónomos, capazes de delegar tarefas e operar com maior independência. Este avanço promete redefinir as interações entre humanos e “máquinas,” mas também exigirá a implementação de normas éticas e mecanismos de supervisão robustos para garantir a fiabilidade e a transparência destes sistemas.

A evolução dos LLMs deverá continuar a surpreender, com modelos que não só igualam, mas superam os especialistas em diversas áreas. Este salto tecnológico colocará desafios acrescidos à validação e auditoria das respostas geradas, forçando a criação de novos padrões de avaliação e certificação.

No contexto da educação, espera-se que as ferramentas de IA continuem a ganhar espaço, reforçando a personalização e adaptabilidade no ensino. Contudo, será fundamental desenvolver protocolos de proteção de dados e garantir que a implementação destas tecnologias seja acompanhada por regulamentações claras.
Por fim, o foco na saúde mental deverá intensificar-se, com mais plataformas digitais a serem integradas em programas de prevenção e tratamento. O desafio será equilibrar o uso destas ferramentas com a necessidade de manter a empatia e o contacto humano como elementos centrais na prestação de cuidados.

Se 2024 nos ensinou algo, foi que a IA deixou de ser um conceito futurista para se tornar uma presença inevitável no quotidiano. O próximo passo será garantir que esta presença seja sustentável, ética e, acima de tudo, fiável. Que 2025 seja o ano em que a colaboração entre humanos e “máquinas” alcance novos patamares, não apenas em termos de eficiência, mas também de confiança e transparência. Porque, no final, o verdadeiro desafio não será apenas ensinar a IA a pensar, mas também assegurar que pensa de forma alinhada com os valores humanos.

(*) membro da Direção Nacional da Ordem dos Psicólogos Portugueses