Por Enrique Dans (*)

O lançamento do ChatGPT pela OpenAI no final de novembro do ano passado esteve na ribalta do mundo e deu-nos a conhecer uma tecnologia chamada aprendizagem automática capaz de executar um número surpreendente de coisas. Repare bem na linguagem. Não se trata de inteligência artificial, porque as máquinas não são inteligentes, mas simplesmente programadas para consultar bases de dados e utilizar estatísticas.

Há anos que já se vem aplicando a automação avançada a todo o tipo de usos, mas o ChatGPT deslumbrou o mundo ao aplicar uma área específica da aprendizagem automática, os Modelos de Linguagem Grandes (LLM, Large Language Models), ao ambiente conversacional. A adesão é cada vez maior e as pessoas não o utilizam tanto para conversar, como seria o seu intuito inicial, mas sobretudo como motor de pesquisa. Esta reviravolta pode muito bem pôr em risco as duas décadas de hegemonia do Google.

É interessante destacar que a Google já desenvolveu uma tecnologia muito semelhante, que prefere manter fechada a sete chaves enquanto não tiver garantias da sua qualidade e fiabilidade. Os LLM baseiam-se em afinidades e correspondências estatísticas para responder às perguntas, mas, para se chegar às «corretas», é preciso filtrar, por exemplo, excluindo o que não serve. Não é um processo fácil, e algumas respostas estarão parcial ou completamente incorretas, mesmo que a linguagem utilizada pareça ser a de um verdadeiro conhecedor da matéria.

É evidente que a Google não tardou a dar-se conta da ameaça que o ChatGPT representava e ripostou. Trazendo os seus dois fundadores reformados de volta ao ativo, decidiu incorporar tecnologias semelhantes em cerca de 20 dos seus produtos. Já investidora na OpenAI, a Microsoft prepara-se para lhe seguir o exemplo. (Se ainda não teve o prazer de criar um documento Excel com um algoritmo como o ChatGPT, recomendo-lho vivamente.)

Até aqui, tudo bem: a inovação incentiva a competição.

O problema, porém, é o que vai acontecer ao pensamento crítico. Uma página de resultados do Google, com as suas ligações, mostra-nos a fonte e poderá incluir um fragmento de texto, entre outras coisas, antes de finalmente clicarmos e acedermos à página para encontrar o que procurávamos (com sorte). Agora, com o ChatGPT e afins, fazemos uma pergunta e recebemos dois parágrafos com a resposta que, ainda por cima, pode ou não estar correta, apesar de parecer certíssima.

Hoje em dia, a carência de pensamento crítico no mundo é tal que muitas pessoas aceitam o primeiro resultado no Google como escrito na pedra. Digo-o de experiência. Recebi chamadas de muitas pessoas convencidas de que eu era o gerente do serviço de apoio ao cliente de uma companhia aérea espanhola simplesmente porque, há muito tempo, escrevi um artigo sobre o serviço de apoio ao cliente terrível da Air Europa que ficou indexado no topo do motor de busca da Google. Tente só convencer passageiros furiosos de que não é a pessoa a quem devem dirigir as suas queixas! Queriam lá saber o que lhes dizia: segundo tinham lido na página do motor de pesquisa, o Google dissera-lhes que eu era do serviço de apoio ao cliente da companhia aérea, portanto, só poderia estar a mentir.

Assim, se as pessoas aceitam a palavra do Google cegamente, imagine como será com o ChatGPT. A resposta à sua pesquisa pode ser o mais perfeito disparate, mas isso não interessa nada: para muita gente, é pura verdade de fonte fiável.

Existem ferramentas como a Perplexity.ai que tentam remediar este problema fornecendo fontes, o que, pelo menos, permite a quem assim o deseje, confirmar a veracidade da resposta. Diria que a Google, que tem tanto em jogo, não se limitará a fornecer apenas algum texto, mas que seguirá na mesma direção, oferecendo algo mais elaborado que permitirá ao utilizador verificar se a resposta provém de um artigo científico, de um tabloide ou de uma seita antivacinas, negacionistas das mudanças climáticas ou teóricos de conspirações. No mínimo dos mínimos, os motores de busca são responsáveis por permitir que os utilizadores confirmem as respostas com alguns cliques. É necessário, dada a consistente erosão do pensamento crítico que nos torna dependentes de uma ferramenta que facilmente pode ser utilizada para manipular-nos.

Não obstante, no fim das contas, não devemos estar à espera de que a Big Tech facilite o pensamento crítico, já que isso temos de ser nós a desenvolver por nós próprios, como indivíduos, e coletivamente, como sociedade. O problema é que as nossas escolas não o ensinam, preterindo-o pelo conforto dos manuais, amiúde proibindo smartphones na sala de aula em vez de enfrentar o desafio de instruir os alunos a utilizá-los devidamente.

Dito isto, o sistema de educação não é o único responsável, uma vez que os pais têm o dever de integrar os filhos no mundo em que vivem. Infelizmente, para isso, terão de pensar duas vezes antes de lhes porem um telemóvel ou um tablet nas mãos para que fiquem sossegados.

Ao fim de anos a ouvir «isto tem de ser verdade, porque vi na televisão», passámos a «isto tem de ser verdade, porque é o que diz o algoritmo». Conclusão: ou ganhamos juízo e começamos a dar prioridade ao pensamento crítico ou acabaremos numa trapalhada coletiva, mais vulneráveis que nunca à informação errada.

(*) Enrique Dans é professor de sistemas e tecnologias de informação, IE University