O final do ano de 2025 ficará marcado como o momento em que a Microsoft deixou de apostar apenas num "cavalo" para passar a ser o dono de todo o hipódromo. Através de dois grandes anúncios, separados por menos de um mês, a empresa liderada por Satya Nadella desenhou o próximo capítulo da computação em nuvem.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

No final de outubro, a Microsoft confirmou o "próximo capítulo" da sua parceria com a OpenAI. Após meses de especulação sobre uma possível tensão entre as duas empresas, o anúncio de 28 de outubro serviu para acalmar investidores e programadores.

O novo acordo reforça o papel da Microsoft como o fornecedor exclusivo de infraestrutura cloud para a criadora do ChatGPT, garantindo que as futuras inovações dos modelos GPT continuam a ter o Azure como espinha dorsal. Este movimento foi crucial para garantir que, apesar da concorrência crescente, o "motor" da IA generativa mais popular do mundo continua a correr nos servidores da Microsoft.

Contudo, a verdadeira mudança de paradigma chegou a 18 de novembro, com a Microsoft a anunciar parcerias estratégicas com a Nvidia e, mais surpreendentemente, com a Anthropic, a criadora do modelo Claude e uma das principais rivais da OpenAI.

Este movimento estratégico revela uma abordagem mais agnóstica e abrangente. Com a Nvidia, a Microsoft pretende optimizar ainda mais o hardware da sua infraestrutura, garantindo que os chips mais potentes do mundo estão perfeitamente integrados com o software da Microsoft, acelerando assim o treino de modelos complexos, algo que iremos assistir no futuro centro de dados de Sines.

Com a Anthropic, a introdução dos modelos Claude para o ecossistema da Microsoft, a empresa oferece aos seus clientes empresariais uma escolha real. Se uma empresa preferir a segurança e o estilo do Claude em vez do ChatGPT da OpenAI, pode agora fazê-lo sem sair da nuvem da Microsoft.

Centro de dados em Sines vai contar com instalação de 12.500 GPUs da Nvidia para treino e inferência de IA
Centro de dados em Sines vai contar com instalação de 12.500 GPUs da Nvidia para treino e inferência de IA
Ver artigo

Ao juntar todos estes parceiros, a estratégia da Microsoft torna-se clara, a de querer ser um "Super-Agregador”. Desta forma, deixa apenas de ser um mero fornecedor de acesso ao ChatGPT, passando a ser uma camada fundamental onde toda a revolução da IA acontece.

Ao garantir que dois dos melhores modelos de IA do mercado (OpenAI e Anthropic) e o melhor hardware (Nvidia) estão todos debaixo da alçada do Azure e do Copilot, a Microsoft protege-se melhor contra possíveis flutuações do mercado. Se no futuro o modelo da Anthropic superar o da OpenAI, a Microsoft continuará a ser o fornecedor ideal para todos, pois é ela quem fornece a infraestrutura para ambos.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.