Por Daniela Seixas (*)

Todos concordamos que a inteligência artificial aplicada aos cuidados de saúde é promissora, mas a verdade é que há mais de uma década que a promessa perdura sem concretização em larga escala.

Existem aplicações específicas, nomeadamente na área da imagiologia médica, que já têm uma performance superior à do médico na leitura de imagens. Têm sido utilizadas como um assistente ao diagnóstico, cabendo ao médico a validação do resultado final.

A OpenAI tem vindo a desenvolver um modelo de inteligência artificial, conhecido como o ChatGPT, que ao contrário do exemplo dado, é generalista, baseado em linguagem natural. Foi alimentado com uma quantidade gigante de dados da web e a verdade é que a sua performance é espantosa. Ainda comete erros, as chamadas alucinações, e sofre de vieses; o serviço falha com frequência e em português de Portugal ainda não é muito proficiente, a comparar com o seu uso em inglês.

A sua aplicação na saúde tem desafios adicionais, sendo a privacidade dos dados um dos mais relevantes. A privacidade dos doentes tem que ser sempre preservada: os dados que possam identificar doentes não podem ser partilhados em ferramentas como o ChatGPT.

Existem ainda preocupações éticas em relação ao uso de bots inteligentes na saúde, especialmente quanto à responsabilidade e ao papel do profissional de saúde.

É fundamental garantir que as pessoas que usam esta tecnologia compreendem os seus limites para que possam tomar decisões informadas sobre a sua utilização. Esta frase foi escrita pelo próprio ChatGPT.

Apesar das suas limitações e desafios – que vão ser significativamente mitigados com a chegada da nova versão, o GPT 4, que está em lançamento – já tem um potencial enorme para tornar mais eficientes os cuidados de saúde.

Apesar de ainda não poder ser utilizado para o diagnóstico e para decisões de tratamento, pode, no entanto, ser aplicado desde já às operações não-clínicas em saúde.

Uma percentagem muito significativa do tempo dos profissionais de saúde, em particular nos cuidados primários, é despendida com trabalho administrativo, como a escrever emails, passar atestados médicos, resumir informação científica, codificar doenças, preparar notas de alta ou de referenciação de doentes, entre outros. Além disso, os profissionais de saúde também podem – e devem – servir-se do ChatGPT ou de outras ferramentas idênticas para tarefas pessoais, como para planear refeições ou períodos de descanso e assim alcançar um melhor equilíbrio entre a vida pessoal e o trabalho.

Com a chegada do GPT 4, as suas capacidades estendem-se e passa a ser possível integrá-lo com bibliotecas de conhecimento médico, motores de busca e sistemas de agendamento de consultas ou de telemedicina, entre vários outros.

E, num futuro nada distante, a OpenAI com a Microsoft, e outras empresas como a Google com o Med-PaLM, lançarão modelos inteiramente dedicados à resposta de perguntas médicas. São treinados com dados específicos de domínio e são mais seguros do ponto de vista da tomada de decisão clínica. Dois temas particularmente importantes neste tipo de modelos são a transparência e a consistência: a medicina não é uma ciência exata e para se chegar ao melhor diagnóstico é necessário saber qual foi o processo até ao resultado e se esse processo é consistente.

A inteligência artificial chegou então ao dia-a-dia dos profissionais de saúde. Muitos já estão a usar a ferramenta diretamente através da plataforma da OpenAI e outros através de plataformas pioneiras, como a Tonic App na Europa.

Torna-se assim fácil perceber que aplicações como o ChatGPT já estão, desde as bases, a revolucionar os cuidados de saúde, tanto na sua vertente clínica como na sua vertente não-clínica, com o potencial de os tornar mais eficientes e acessíveis.

Bill Gates lembra-nos, no entanto, a questão da equidade. Ferramentas como esta devem também ser postas ao serviço da saúde dos mais desfavorecidos no mundo, para combater doenças como a SIDA, a tuberculose e a malária.

(*) CEO da Tonic App