Cerebras lança chip WSE-4 em escala de wafer com 7 trilhões de transistores para treinamento de IA

Tecnologia·4 min de leitura
Close-up of a circuit board with intricate electronic components and copper traces

Cerebras Systems, startup de chips de IA conhecida por construir processadores do tamanho de pratos de jantar, anunciou seu Wafer-Scale Engine de quarta geração. O WSE-4 contém 7 trilhões de transistores fabricados em um único wafer de silício, tornando-o o maior e mais complexo chip já produzido. A empresa afirma que o novo processador pode treinar modelos de IA de ponta até quatro vezes mais rápido que seu antecessor, consumindo significativamente menos energia por computação.

Maior que qualquer outra coisa

Para entender o que torna a Cerebras incomum, considere a escala. Uma GPU NVIDIA H100 típica – o carro-chefe dos data centers modernos de IA – contém 80 bilhões de transistores em um chip aproximadamente do tamanho de um selo postal. O Cerebras WSE-4 tem o tamanho de um wafer de silício inteiro de 300 mm, aproximadamente 46.225 milímetros quadrados de área de computação ativa. Ele contém quase 90 vezes mais transistores que o H100.

Essa vantagem de tamanho se traduz diretamente em desempenho para determinadas cargas de trabalho. O treinamento do modelo de IA envolve multiplicações massivas de matrizes que se beneficiam de manter os dados próximos aos núcleos de processamento. Em um cluster de GPU convencional, os dados devem ser transportados constantemente entre GPUs individuais por meio de interconexões de rede, criando gargalos. Em um chip em escala wafer, todo o modelo pode residir em um único dispositivo com largura de banda de memória no chip que supera qualquer coisa alcançável em uma rede.

"O muro da memória é o gargalo fundamental no treinamento de IA, e nós o movemos", disse Andrew Feldman, cofundador e CEO da Cerebras. "Com o WSE-4, um modelo com até 600 bilhões de parâmetros pode treinar inteiramente no chip, sem qualquer acesso à memória fora do chip durante passagens para frente e para trás."

Detalhes Técnicos

O WSE-4 é fabricado no nó de processo N3E da TSMC, um avanço em relação ao processo N5 usado no WSE-3. Possui 1,2 milhão de núcleos otimizados para IA, 300 GB de SRAM no chip e 700 petabytes por segundo de largura de banda de memória interna. A conectividade externa é fornecida por meio de 1,2 terabits por segundo de largura de banda de E/S para armazenamento e rede conectados.

A Cerebras também redesenhou sua pilha de software, chamada Cerebras Software Platform 4.0, para suportar as mais recentes arquiteturas de modelos, incluindo mistura de especialistas, modelos de espaço de estados e transformadores de difusão. A plataforma agora inclui uma ferramenta automatizada de particionamento de modelos que pode dividir modelos com mais de 600 bilhões de parâmetros em vários sistemas WSE-4, minimizando a comunicação entre chips.

O consumo de energia é avaliado em 28 quilowatts por sistema WSE-4, o que parece impressionante para um único chip, mas é consideravelmente menor do que os 40-60 quilowatts consumidos por um rack de GPUs NVIDIA que oferecem rendimento de treinamento comparável.

O Desafio NVIDIA

Apesar de suas conquistas técnicas, a Cerebras enfrenta o mesmo desafio que todos os concorrentes da NVIDIA enfrentam: o ecossistema de software. A plataforma CUDA da NVIDIA tem sido a estrutura de programação dominante para computação GPU há mais de 15 anos, e praticamente todos os laboratórios de pesquisa de IA e provedores de nuvem construíram sua infraestrutura em torno dela.

A Cerebras contraria isso oferecendo total compatibilidade com PyTorch, a estrutura de pesquisa de IA mais usada, e recentemente adicionou suporte a JAX. A empresa afirma que a maioria dos scripts de treinamento existentes podem ser executados em hardware Cerebras com modificações mínimas, embora benchmarks independentes para verificar essa afirmação ainda sejam limitados.

A startup conquistou clientes notáveis, incluindo a GlaxoSmithKline para descoberta de medicamentos, a Clínica Mayo para IA de imagens médicas e vários empreiteiros de defesa não divulgados. No entanto, a sua base instalada total permanece uma fração da da NVIDIA. Analistas da Semianálise estimam que a Cerebras vendeu cerca de 200 sistemas WSE-3 em 2025, em comparação com centenas de milhares de GPUs NVIDIA vendidas em data centers durante o mesmo período.

Financiamento e posição de mercado

A Cerebras levantou mais de US$ 4,7 bilhões em financiamento total e foi avaliada pela última vez em US$ 14 bilhões após uma rodada da Série G no final de 2025. A empresa entrou com pedido de IPO em 2024, mas adiou-o em meio à volatilidade do mercado. Feldman disse que o lançamento do WSE-4 posiciona a empresa para uma listagem pública “quando as condições forem adequadas”, sem fornecer um cronograma.

O mercado de chips de IA deverá atingir US$ 180 bilhões até 2028, de acordo com o Gartner. Atualmente, a NVIDIA controla cerca de 80% do mercado de aceleradores de treinamento de IA, mas a crescente demanda e as restrições de energia nos data centers criaram aberturas para arquiteturas alternativas.

O WSE-4 estará disponível para encomenda no terceiro trimestre de 2026, com as primeiras entregas previstas para o quarto trimestre. O preço não foi divulgado, mas espera-se que chegue a milhões por sistema.

Partilhar

Artigos Relacionados