Há momentos em que gera uma resposta falsa que pode ser óbvia e mais fácil de detetar. Eu ficaria mais preocupado com erros de omissão. O que acontece quando dá uma resposta, mas há uma grande quantidade de dados aos quais realmente não se referiu?", questionou Salvagnini, durante um fórum da agência espacial norte-americana em Washington sobre esta tecnologia.

O responsável pela IA na NASA apelou, por isso, a uma análise detalhada dos elementos que levam a estas respostas.

"Entendemos a origem desses dados? Confiamos na sua precisão? Porque se a resposta a essas perguntas for negativa, a nossa confiança no resultado da IA deve ser descartada ou reduzida", frisou.

Salvagnini foi nomeado em 13 de maio como o primeiro diretor de IA da NASA, para alinhar a visão estratégica e o planeamento do uso desta tecnologia na agência espacial norte-americana.

O novo cargo surge em resposta à ordem executiva de outubro de 2023 da administração liderada pelo democrata Joe Biden, sobre o desenvolvimento e uso seguro de IA, que apelou a todas as agências federais para criarem esta posição.

"A IA não é responsável pelo resultado, as pessoas são. Temos que estar conscientes das nossas responsabilidades", destacou ainda.

"Quase gostaria que a inteligência artificial não fosse chamada assim, mas que fosse conhecida como ajuda digital, como um assistente digital ao qual se tem acesso para receber ajuda no processo de tomada de decisão", concluiu.

Salvagnini entrou na NASA em 2023, onde é diretor de dados, depois de 21 anos nas Forças Armadas dos EUA e com mais de 20 anos a trabalhar na utilização de tecnologias pelos serviços de informações.