AWS aposta em híbrido de chips próprios e tecnologia da Nvidia
AWS lança Trainium 3 e anuncia Trainium 4 com tecnologia Nvidia, ampliando desempenho e eficiência na corrida por infraestrutura de IA na nuvem
A AWS apresentou hoje uma ofensiva estratégica no setor de inteligência artificial (IA), anunciando que combinará seus chips internos com a tecnologia de interconexão da Nvidia para oferecer servidores de alto desempenho e custo otimizado. A empresa lançou oficialmente o chip Trainium 3, enquanto antecipou a futura geração Trainium 4, que integrará a tecnologia NVLink Fusion.
Trainium 3: potência e eficiência desde já
Os novos servidores da AWS baseados em Trainium 3 já estão disponíveis. Cada servidor comporta até 144 chips, e a empresa afirma que essa configuração entrega mais de quatro vezes o desempenho da geração anterior, com redução de 40% no consumo energético.

Imagem do chip que é o trainium 3 (foto: reprodução/x/@equityscope)
A eficiência energética e o ganho em performance podem trazer economia real para empresas que treinam ou operam modelos de IA em larga escala, um ponto central para a AWS na disputa com provedores de hardware tradicional.
Clientes iniciais relataram redução significativa nos custos com inferência e treinamento. Entre eles estão startups e empresas focadas em modelos de IA, que já aproveitam a infraestrutura da AWS para rodar aplicações em produção.
Trainium 4 NVLink Fusion: aposta na interoperabilidade
A grande novidade está na estratégia para Trainium 4: o chip usará NVLink Fusion, tecnologia da Nvidia que permite conexões ultra-rápidas entre diferentes aceleradores (chips, GPUs, etc.). Isso permitirá que servidores da AWS combinem seus chips proprietários com aceleradores da Nvidia no mesmo rack, oferecendo flexibilidade e compatibilidade para clientes que dependem do ecossistema Nvidia.
A adoção do NVLink Fusion marca uma virada simbólica: mesmo enquanto busca reduzir dependência de hardware de terceiros, a AWS reconhece a importância da interoperabilidade, especialmente para empresas que já utilizam software, frameworks e modelos otimizados para GPUs Nvidia.
Ainda sem data de lançamento, o Trainium 4 promete expandir as capacidades de computação para IA na nuvem, precisamente em um momento em que a demanda por modelos grandes e complexos só cresce.
O que isso significa para o mercado de IA
A estratégia da AWS revela uma visão híbrida: não bastasse oferecer chips próprios mais baratos e eficientes com Trainium, a empresa aposta que performance, especialmente em treinamentos de larga escala, deve conviver com compatibilidade e flexibilidade de hardware. Esse movimento pode oferecer a empresas de todos os portes uma via de transição: menor custo sem abrir mão da robustez e do padrão do mercado.
Para o ecossistema de IA como um todo, a combinação de chips internos + interconectividade Nvidia pode acelerar a adoção de IA corporativa, democratizando acesso à infraestrutura de ponta e reduzindo barreiras de custo.
Além disso, o anúncio simboliza uma tendência mais ampla: provedores de nuvem cada vez mais buscam “verticalizar” sua infraestrutura, mas sem isolar-se de ecossistemas consolidados. A integração entre soluções próprias e de mercado parece ser a aposta para os próximos anos.
