Se você acompanha o mundo da tecnologia, sabe que a velocidade é tudo. E quando falamos de inteligência artificial, a necessidade de processar dados rápido é ainda maior.
É aqui que entram os novos chips HBM4. As gigantes sul-coreanas Samsung e SK Hynix estão prontas para dar a largada na produção dessa tecnologia que promete mudar o jogo.
Segundo informações recentes da indústria, ambas as empresas planejam iniciar a fabricação em massa dessas memórias de sexta geração logo no início de 2026.
O objetivo é claro: alimentar a fome insaciável das grandes empresas de tecnologia por poder de processamento.
A corrida pelos chips HBM4 começa em 2026
Marque no calendário: fevereiro de 2026. Essa é a data prevista para que a Samsung e a SK Hynix liguem as máquinas para a produção em massa dos chips HBM4.
Embora houvesse rumores de que a SK Hynix só terminaria seus processos em setembro, relatórios mais recentes indicam que as duas rivais vão começar praticamente juntas.
A Samsung vai concentrar sua produção no campus de Pyeongtaek, na Coreia do Sul. Já a SK Hynix vai dividir seus esforços entre a planta M16, em Icheon, e a fábrica M15X, em Cheongju. É uma verdadeira corrida contra o tempo.
A Samsung, por exemplo, está determinada a não repetir o passado, quando perdeu a chance de fornecer em grande volume a geração anterior (HBM3E) para a Nvidia. Agora, a empresa quer garantir que seus estoques estejam cheios e testados para atender à demanda logo de cara.
Diferenças técnicas: Samsung vs SK Hynix
Embora o objetivo seja o mesmo, o caminho que cada empresa escolheu para criar seus chips HBM4 é bem diferente. Isso é interessante porque mostra como a competição impulsiona a inovação.
A Samsung optou por uma solução “chave na mão” (turnkey). Isso significa que ela vai cuidar de tudo sozinha, do design até a produção final, utilizando sua própria tecnologia de 10 nanômetros (10nm). Nos testes internos, a empresa afirma que conseguiu velocidades impressionantes de até 11,7 Gbps.
Do outro lado, a SK Hynix decidiu fazer uma parceria de peso. Ela vai colaborar com a TSMC para usar um processo de 12nm na base do chip (o chamado “base die”), que funciona como o cérebro da memória.
A promessa é dobrar a largura de banda e melhorar a eficiência energética em cerca de 40%. Para quem gerencia servidores gigantescos que consomem muita energia, essa economia de 40% é um grande diferencial.
Em termos de volume, a Samsung parece estar na frente, com uma capacidade mensal de cerca de 170.000 wafers (as placas de silício onde os chips são feitos), contra 160.000 da SK Hynix.
O papel da Nvidia e a inteligência artificial
Você deve estar se perguntando: para onde vão todos esses chips? A resposta curta é: Nvidia. A gigante das placas de vídeo já tem acordos com ambas as fabricantes para usar os chips HBM4 em sua próxima geração de aceleradores de IA, batizada de “Vera Rubin”.
A inteligência artificial moderna precisa de uma quantidade absurda de dados trafegando muito rápido. É como tentar encher uma piscina olímpica usando um canudinho; sem uma memória rápida (o HBM), o processador de IA fica esperando os dados chegarem.
Com o HBM4, esse “canudo” vira um tubo gigante, permitindo que a IA aprenda e responda muito mais rápido.
Além da Nvidia, a Samsung também deve fornecer esses chips para o Google, que os usará em suas próprias unidades de processamento (TPUs) de sétima geração. Isso mostra que, apesar da rivalidade, há espaço para vários players nesse mercado bilionário.
Escassez e impacto no mercado
Mesmo com toda essa produção massiva planejada para 2026, é provável que você, consumidor final, não veja esses chips no seu computador de casa tão cedo.
A má notícia é que a capacidade de produção da Samsung e da SK Hynix já está praticamente toda reservada para as grandes empresas de IA.
Isso cria um efeito dominó. Como as fabricantes estão focando quase todos os recursos na produção de HBM, sobra menos espaço nas fábricas para produzir a memória RAM comum (DRAM) que usamos em nossos PCs e smartphones.
O resultado? A escassez de chips deve continuar, e os preços das memórias podem se manter altos durante todo o ano de 2026. É o preço que pagamos pelo avanço acelerado da tecnologia de inteligência artificial.

