Os investidores ainda estão a questionar quem vai ganhar a guerra das chips de IA, mas isso é na verdade apenas a primeira metade. A Nvidia dominou com GPUs, a AMD e a AMD estão a seguir atrás, a Broadcom está a ajudar outros a fabricar chips personalizados… parece tudo muito animado.
Mas a verdade é: a eficiência energética é o próximo ponto decisivo.
Por quê? Porque o consumo de energia é mortal.
A GPU é muito agradável durante a fase de treinamento de IA — afinal, é só rodar uma vez. Mas e depois do treinamento? A fase de inferência é que representa o custo a longo prazo. É nessa hora que os custos elevados de consumo de energia se tornam evidentes.
Aqui a Alphabet (Google) tem uma vantagem absoluta - eles gastaram mais de 10 anos a desenvolver internamente o TPU (Unidade de Processamento Tensorial), já na sétima geração. Estes chips foram feitos sob medida para o seu framework TensorFlow, com uma profunda adaptação à infraestrutura do Google Cloud. O resultado é: desempenho superior, menor consumo de energia.
Para comparação: OpenAI e Perplexity dependem principalmente das GPUs da Nvidia, que têm um custo mais alto e consomem mais energia. O Google utiliza TPU para treinar o Gemini, o que reduz significativamente os custos operacionais.
A trama é mais profunda
O mais surpreendente é que a Alphabet não vende TPU para estranhos. Quer usar os chips? Tem de rodar os negócios na Google Cloud, o que traz múltiplos pontos de receita para o Google: chips, serviços de nuvem, software… um ecossistema completo.
E quanto aos recentes investimentos e aquisições loucas da Nvidia? Isso porque ouviram dizer que a OpenAI está testando o TPU do Google, a Nvidia ficou apavorada e rapidamente fechou um grande contrato com a OpenAI. Isso indica que: a indústria reconhece este plano de integração da Alphabet.
Quem vencerá na próxima fase
O que há de novo no Google?
Modelo Gemini 3 (analistas dizem que certos indicadores superam o padrão da mesma geração)
Plataforma Vertex AI (permite que os clientes construam aplicações rapidamente)
Rede de fibra ótica própria (reduzir latência)
Também pretende adquirir a empresa de cibersegurança Wiz
Nenhuma empresa tem uma pilha de tecnologia de IA tão integrada. Desde chips até software e infraestrutura, uma solução completa.
Este é o poder da integração vertical - enquanto os outros lutam em guerras pontuais, a Alphabet luta em uma guerra ecológica.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A guerra das chips já está ultrapassada, a verdadeira competição em IA está na "eficiência".
Vocês todos estão olhando na direção errada.
Os investidores ainda estão a questionar quem vai ganhar a guerra das chips de IA, mas isso é na verdade apenas a primeira metade. A Nvidia dominou com GPUs, a AMD e a AMD estão a seguir atrás, a Broadcom está a ajudar outros a fabricar chips personalizados… parece tudo muito animado.
Mas a verdade é: a eficiência energética é o próximo ponto decisivo.
Por quê? Porque o consumo de energia é mortal.
A GPU é muito agradável durante a fase de treinamento de IA — afinal, é só rodar uma vez. Mas e depois do treinamento? A fase de inferência é que representa o custo a longo prazo. É nessa hora que os custos elevados de consumo de energia se tornam evidentes.
Aqui a Alphabet (Google) tem uma vantagem absoluta - eles gastaram mais de 10 anos a desenvolver internamente o TPU (Unidade de Processamento Tensorial), já na sétima geração. Estes chips foram feitos sob medida para o seu framework TensorFlow, com uma profunda adaptação à infraestrutura do Google Cloud. O resultado é: desempenho superior, menor consumo de energia.
Para comparação: OpenAI e Perplexity dependem principalmente das GPUs da Nvidia, que têm um custo mais alto e consomem mais energia. O Google utiliza TPU para treinar o Gemini, o que reduz significativamente os custos operacionais.
A trama é mais profunda
O mais surpreendente é que a Alphabet não vende TPU para estranhos. Quer usar os chips? Tem de rodar os negócios na Google Cloud, o que traz múltiplos pontos de receita para o Google: chips, serviços de nuvem, software… um ecossistema completo.
E quanto aos recentes investimentos e aquisições loucas da Nvidia? Isso porque ouviram dizer que a OpenAI está testando o TPU do Google, a Nvidia ficou apavorada e rapidamente fechou um grande contrato com a OpenAI. Isso indica que: a indústria reconhece este plano de integração da Alphabet.
Quem vencerá na próxima fase
O que há de novo no Google?
Nenhuma empresa tem uma pilha de tecnologia de IA tão integrada. Desde chips até software e infraestrutura, uma solução completa.
Este é o poder da integração vertical - enquanto os outros lutam em guerras pontuais, a Alphabet luta em uma guerra ecológica.