A tecnologia de IA generativa do ChatGPT é o fenómeno tecnológico de 2023, sejam pelos benefícios que introduz em todos os sectores da indústria e na vida das pessoas, assim como os respetivos perigos associados. A tecnologia criada pela OpenAI pretende introduzir novas possibilidades e realismo na interação entre os humanos e os sistemas de inteligência artificial e uma alternativa aos assistentes de IA como o Alexa, Siri e Google Assistant. E por isso, gigantes como a Google e Microsoft, assim como empresas chinesas, não querem passar ao lado do fenómeno e estão a abraçar a tecnologia com os seus próprios sistemas.

De forma a compreender melhor este fenómeno, assim como as suas vantagens (e algumas falhas), o SAPO TEK entrevistou Paulo Dimas, vice-presidente de Inovação na Unbabel. A Scaleup portuguesa, especialista em tecnologia de tradução baseada em IA, lidera também o Center for Responsible AI, organização dedicada a responder aos desafios e perigos colocados por IA generativa, que no fundo é o mecanismo que distingue o ChatGPT de outros sistemas.

Antes de mais, aquilo que se entende por IA generativa é a capacidade de o sistema gerar conteúdo, incluindo texto, imagens ou música, como base em padrões e características presentes em dados existentes, que alimentam a sua aprendizagem. Apesar de ter a responsabilidade de fornecer informação fiável e correta, tem de ter uma base livre de enviesamento. E esse é um dos desafios que sistemas como o ChatGPT continuam a querer ultrapassar.

Estratégia GovTech: Portugal quer ser modelo no domínio da Justiça, mesmo que tenha de recorrer à tecnologia do ChatGPT
Estratégia GovTech: Portugal quer ser modelo no domínio da Justiça, mesmo que tenha de recorrer à tecnologia do ChatGPT
Ver artigo

Para Paulo Dimas, “estamos a assistir a um momento histórico de utilização de IA, que ninguém estava à espera”. Explica que houve um salto significativo que colocou a tecnologia num novo patamar. E que nem a própria OpenAI estava à espera do fenómeno de utilização à escala mundial. Basta recordar que foram necessários alguns dias para somar um milhão de utilizadores (Paulo Dimas diz que o Instagram demorou um ano para chegar ao milhão de utilizadores). O especialista diz que houve uma combinação de fatores que despoletaram esse sucesso, sendo um deles o resultado da combinação de tecnologias que já existiam.

O modelo transformador do ChatGPT já existe desde 2017, mas Paulo Dimas diz que a combinação da IA generativa com a parte do feedback humano foram os principais motivos para se chegar até aqui. Ou seja, são os próprios utilizadores ou os criadores destes modelos a gerarem dados que “atacam” os grandes desafios que foram colocados ao anterior GPT-3. Ou seja, a criação de conteúdos tóxicos, os preconceitos ou a capacidade de ensinar as pessoas a criar coisas que façam mal a outros, tais como bombas ou hacking, foram ultrapassados.

“Houve uma evolução e os eventos nocivos têm sido ultrapassados graças ao feedback humano, diminuindo a utilização sem responsabilidade”.

Outro aspeto que contribuiu para a explosão mediática da tecnologia foi a acessibilidade, o facto de ser um produto muito fácil de utilizar, em que qualquer pessoa pode saltar para o website interagir com o sistema. “São estes os componentes que levaram a esta explosão”, rematando que isso colocou a Google numa posição de “reagir”, em vez de “liderar” a tecnologia, considerando que se trata de um novo fenómeno nesta área. “A facilidade de utilização do produto apanhou as gigantes tecnologias desprevenidas”.

Sistema é baseado em dados e podem ter erros, dependendo de feedback humano

Não estar bem informado sobre o funcionamento do ChatGPT pode gerar confusões em assumir que a IA tem a capacidade de realmente pensar e responder aos utilizadores. Mas trata-se de um “papagaio” inteligente que apenas replica aquilo para o qual foi ensinado. Neste caso a pesquisar na Internet as informações para responder às questões colocadas. E como se sabe, a internet tem muitas informações incorretas, fake news e outros dados que requerem filtros.

E veja-se que nem a Google ficou imune a erros na apresentação do seu sistema Bard, que errou uma das cinco perguntas feitas sobre as descobertas do James Webb. A resposta errada foi denunciada por diversos especialistas de astrofísica e custou à empresa um “susto” à sua empresa-mãe Alphabet de um afundanço no seu valor da bolsa em 100 mil milhões de dólares, numa quebra de 9%. E para combater os erros é onde entra o feedback humano, segundo Paulo Dimas, a capacidade do modelo de aprendizagem em atualizar-se com base no feedback introduzido por humanos. “Certamente que a Google corrigiu de imediato o erro que o seu modelo deu”.

O trabalho que a Unbabel e outros parceiros estão a fazer no Center for Responsible AI diz respeito à diminuição das questões relativas ao preconceito, mas também o aumento de confiança na utilização da IA em mais áreas. A Unbabel está também a promover a área da “Expandibility”, ou seja, a interação contínua entre o humano e a IA. “A IA diz algo e o humano vai à base de dados e questiona, perguntando ao modelo qual a razão está a dar essa informação. É uma área de investigação profunda e ainda não existe uma solução fácil para o tema”, explica Paulo Dimas.

Tecnológicas alinham-se para concorrer com o ChatGPT. Quais são os projetos e as preocupações com os modelos de IA generativa?
Tecnológicas alinham-se para concorrer com o ChatGPT. Quais são os projetos e as preocupações com os modelos de IA generativa?
Ver artigo

O consórcio é ainda composto por 10 startups de IA e cinco líderes da indústria em diferentes áreas, incluindo a Sonae e o Grupo Pestana, que juntos estão a tentar resolver esses problemas. O objetivo é que a próxima geração de produtos baseados em IA esteja livre de preconceitos e com a capacidade de tratar as pessoas com equidade.

Ainda assim, diz que o ChatGPT oferece uma diminuição de preconceitos e descriminação, salientando que a OpenAI se encontra no caminho certo. E dá exemplos de que antes, o modelo dizia coisas como o homem ser capaz de gerir melhor uma empresa do que uma mulher. E apontava as mulheres para cargos de secretária. “Os sistemas de reinforced learning conseguiram eliminar esses preconceitos”. Sobre o ponto da Expandibility, Paulo Dimas diz que é determinante para áreas ligadas a aplicações médicas, tais como o diagnóstico de cancro de um paciente, afirmando que para isso, o médico precisa de confiar na IA.

Há ainda o pilar da sustentabilidade que os modelos de IA generativa enfrentam atualmente. Afirmar que se tem o melhor modelo do mundo, tudo isso acarreta custos. A OpenAI estava a gastar milhões de dólares por semana para sustentar o ChatGTP, sem retorno, disse Paulo Dimas.

"Ter mais de 100 milhões de pessoas a usar a IA era algo inesperado. Estamos a presenciar um momento histórico."

O especialista da Unbabel explica ainda que o ser humano vai ter de estar sempre no “loop” da tecnologia, de forma a garantir o que é gerado por esses modelos. Pode não servir, por exemplo, para criar conteúdos, mas capaz de executar um sumário muito rapidamente. “O trabalho mecanizado vai ser acelerado, mas o criativo não vai ser”. E recorda que ao basear-se na informação que está disponível online ou para o qual foi alimentada, tudo o que seja novidade não existe no modelo, sendo impossível de ir buscar essa informação. “Não é possível fazer uma tese de doutoramento porque não está a descobrir nada”.

Outro exemplo sobre a forma que modelos como o ChatGPT absorve e replica a informação, nem sempre corretamente, foi na escrita de biografias. Procurou fazer uma biografia de António Damásio, membro da board do consórcio, no ChatGPT. Diz que no primeiro parágrafo os dados estavam corretos, mas no segundo já eram de outra pessoa que tinha o mesmo nome, “e já não se podia confiar”. Isso significa que as fake news podem ter impacto nas respostas, sobretudo quando temos as nossas crianças a aprender, mas refere que a tecnologia está no início e com o tempo vão ser feitas as correções necessárias, sendo um dos desafios, porque existem centenas de biliões de dados que alimentam estes sistemas, “e no final do dia não se sabe o que é correto”.

“ChatGPT é muito positivo para a indústria”

Recentemente o Ministério da Justiça anunciou que vai utilizar a mesma base tecnológica que alimenta o ChatGPT para ajudar os cidadãos a procurar a informação, numa primeira fase focada em casamentos e divórcios. Mas para garantir que toda a informação seja verdadeira e confiável, o sistema está limitado à procura de dados no Portal da Justiça, mais tarde alargado ao Diário da República digital e portal ePortugal.

Paulo Dimas acredita que o ChatGPT seja muito positivo para a indústria. Nas versões anteriores como GPT-3 já se discutia quais eram as aplicações práticas da tecnologia, no que diz respeito a produtos para o consumidor final. “Seria para escrever uma carta de recomendação ou um documento de marketing? Teríamos de esperar para ver o comportamento humano” no que diz respeito à sua utilização.

Sendo o líder de uma equipa que cria produtos de IA, sempre à procura de inovação, estava expectável em relação a esta tecnologia de IA generativa. Mas o número massivo de utilizadores deu uma orientação de como pode ser utilizado, fazendo com que a indústria reagisse rapidamente, apontando que nunca houve um salto tão grande na adoção de tecnologia. A própria OpenAI está agora em fase de regulação, por ter tido tanto impacto em várias indústrias, acelerando os processos. “Agora a empresa está em modo de downplay, defendendo que ainda não é assim tão forte ou tão utilizado”, salientou Paulo Dimas.

Mas veja-se alguns exemplos, de como um professor que utilizou o ChatGPT para escrever uma candidatura e ficou à frente, expressando “nojo” por ter sido escolhido um modelo de IA, apontou Paulo Dimas. Anteriormente, o congressista dos Estados Unidos Tel Lieu pediu ao ChatGPT que escrevesse uma proposta de lei para entregar no Congresso.

A tecnologia pode ser utilizada como engenharia de prompt e “um miúdo no liceu pode criar uma aplicação através do ChatGPT que personifique Luis Camões ou Fernando Pessoa, sem precisar saber de programação, bastando inserir prompts de texto no sistema”. E dá exemplos de outros produtos que já utilizam o chamado Consumer AI, como o Google Fotos, os sistemas de “auto complete” de texto no email, etc. “Mas agora é diferente, porque o utilizador está dentro da tecnologia, com um grau de proximidade que antes não existia”.

"Um miúdo no liceu pode criar uma aplicação através do ChatGPT que personifique Luís Camões ou Fernando Pessoa, sem precisar saber de programação, bastando inserir prompts de texto no sistema".

O especialista da Unbabel diz que inicialmente estava cético, porque modelos anteriores também tiveram curvas de “hype” que não se aguentaram. E pensava inicialmente que seria mais difícil do que foi melhorar as questões relacionadas aos conteúdos tóxicos.

Mas quais são as salvaguardas necessárias para evitar que estes sistemas de IA não induzam os utilizadores ao engano? Para Paulo Dimas é um tema interessante, que tem a ver com todos os modelos estarem alinhados de uma determinada forma. “São treinados com dados preparados especificamente para estes sistemas. E são dados humanos, que têm as suas limitações e em áreas de conhecimento”. E dá o exemplo de limitações culturais que podem moldar o treino da máquina: “ao perguntar-se qual era mais pesado, 1 kg de chumbo ou 1 kg de algodão, a IA respondia que era o chumbo”, devido à popular perceção cultural.

Afirma, mais uma vez, que os sistemas como o ChatGPT são papagaios que replicam o que lhes é ensinado e que a OpenAI contratou 40 pessoas para gerar dados de forma controlada, mas não isentos de erros. Embora possam ser corrigidos facilmente, como anteriormente referido. E é aqui que entra o referido domínio de expandibility, a possibilidade de questionar a máquina sobre as afirmações que produz. E diz que a IA está preparada para “ser simpática com os utilizadores” e sempre que se questiona o ChatGPT sobre as respostas, este pode responder “bom, acho que sim”.

Isso porque os sistemas de IA utilizam modelos de causalidade, ou seja, de correlação de assuntos e o que pesquisou poderá não ser verdade. E por isso, a aprendizagem passa por conseguir explicar à máquina aquilo que está a dizer. Este é um domínio que Paulo Dimas diz que a Unbabel está a avançar, na capacidade de questionar as máquinas sobre as suas afirmações. Mas é um processo ainda em investigação. Mas já quando se fala em entretenimento, como histórias inventadas para crianças, já se conseguem fazer coisas muito boas, desde livros escritos por IA e ilustrados pelo sistema Dall-E, destaca. Já do lado oposto, afirma que o conceito Galactus da Meta não serve para escrever dados científicos.

Paulo Dimas não tem dúvida que este avanço tecnológico vai ter impacto na sociedade e no emprego, sobretudo pela adoção em escala que foi feito do ChatGTP. Ainda assim, encontra-se numa fase transformadora de novas possibilidades. “A OpenAI lançou o produto muito rapidamente, foi uma decisão, porque era para ser o GPT-4. Mas teve receio que algum concorrente lançasse um produto semelhantes antes”.

O especialista diz que o sistema teve uma grande empatia pelos utilizadores, aquilo que chama de “delightfull moment”, o prazer da descoberta da novidade que este sistema de IA ofereceu. E isso tornou-se viral, com a passagem do “boca a boca”, todos queriam experimentar. E para si, essa foi a grande questão, o efeito novidade, e não propriamente as tecnologias que alimentam este modelo de IA generativo. A Unbabel utiliza GPT-3 nos seus modelos de tradução e está a desenvolver os seus próprios modelos na área de investigação, mas admite que este momento se está perante um novo domínio.

Para finalizar, Paulo Dimas salienta que foram ultrapassados três pilares essenciais: o primeiro é o preconceito, que foi algo que travou a Google de lançar anteriormente o seu modelo LAMBDA. O segundo foi a eliminação do conteúdo tóxico, tais como o racismo. Por fim, foram criadas salvaguardas para evitar, por exemplo, que os utilizadores criem conteúdos perigosos. Se perguntar como se faz uma bomba, o sistema vai responder que se trata de algo perigoso para os humanos e não dá a resposta. Mesmo com algumas variações e rasteiras que anteriormente contornavam as salvaguardas foram eliminadas, segundo Paulo Dimas, através do tal sistema de feedback humano.

Mas a tecnologia é recente e ainda se está a tentar perceber o seu potencial. A Google e a Microsoft vão adotar IA generativo nos seus motores de pesquisa, o que também serve como uma validação e massificação desta tecnologia.