
A Amazon demorou a entrar na corrida pela inteligência artificial, mas não está economizando tempo e recursos para recuperar o tempo perdido. A companhia usou o AWS re:Invent 2025, seu evento anual voltado para desenvolvedores, para tentar se consolidar de vez como o “próximo capítulo” da IA – dos agentes autônomos aos chips.
O CEO da AWS, Matt Garman, abriu o segundo dia do evento com 25 anúncios, divididos em quatro categorias: Infraestrutura de IA; Plataforma de inferência; Dados; e Ferramentas para construção de agentes.
Durante o painel, o CEO destacou a importância dos agentes de IA para o futuro das organizações, que em vez de contar com apenas um agente para toda a companhia, terão agentes específicos para cada função e necessidade. Segundo ele, haverá “bilhões de agentes” dentro de cada companhia no futuro.
“O verdadeiro valor da IA ainda não foi totalmente desbloqueado. Assistentes de IA estão começando a dar lugar a agentes de IA que podem executar tarefas e automatizar processos. É nesse ponto que começamos a ver retornos comerciais significativos dos investimentos em IA. Acredito que o surgimento dos agentes de IA nos trouxe a um ponto de inflexão. Para chegar a um futuro com bilhões de agentes, onde cada organização obtenha valor e resultados reais da IA, será necessário expandir ao máximo os limites do que é possível na infraestrutura”, disse ele.
No âmbito dos agentes, a AWS anunciou que dobrou o número de modelos de linguagem disponíveis na plataforma Bedrock, adicionando 18 novos LLMs. Entre eles, dois modelos da francesa Mistral AI. Além disso, a Amazon anunciou o lançamento da sua família de modelos Nova 2, além do Nova 2 Omni, que permite combinar diversos modelos de linguagem para entregar resultados mais assertivos.
As novidades anunciadas pela AWS nesta semana chegam em um momento em que o Google vem despontando como um dos principais players em IA. De um lado, o lançamento do Gemini 3 pressionou a competição com a OpenAI, enquanto do lado do hardware, as notícias de que a Meta estaria negociando a compra de “bilhões de dólares” em chips da Alphabet (a empresa mãe do Google) para usar em seus data centers a partir de 2027 mostra que a companhia está pronta para disputar com a Nvidia.
Agora, a Amazon quer se juntar à briga, com o lançamento de produtos como a nova geração de chips Trainium, otimizados para cargas de trabalho de IA de grande escala. Já disponíveis no mercado, os Trainium3 UltraServers prometem entregar até 4,4 vezes mais desempenho computacional, 4 vezes mais eficiência energética e quase 4 vezes mais largura de banda de memória em comparação à geração anterior.
Segundo Matt, os chips estão sendo vendidos na mesma velocidade em que são produzidos. “A Trainium já representa um negócio multimilionário. Não faz muito tempo que as pessoas diziam que o data center era o novo computador. Bem, quando você está treinando esses modelos de próxima geração, descobre que o campus do data center é o novo computador”, destacou o CEO da AWS.
Para fazer frente a esses avanços e demandas, a AWS já está trabalhando no desenvolvimento do Trainium4, que traria 6 vezes mais desempenho de processamento (FP4), 3 vezes mais desempenho em FP8 e 4 vezes mais largura de banda de memória. O Trainium4 também está sendo projetado para suportar a tecnologia de interconexão de chips de alta velocidade Nvidia NVLink Fusion.
“Quando se pensa em infraestrutura de IA, uma das primeiras coisas que vem à mente são as GPUs. E a AWS é, de longe, o melhor lugar para executar GPUs Nvidia. Fomos, inclusive, os pioneiros na oferta de GPUs Nvidia na nuvem e colaboramos com a Nvidia há mais de 15 anos. Estamos colaborando com nossos parceiros na Nvidia para garantir que estejamos fazendo melhorias constantes”, afirmou Matt Garman.
Apesar do esforço da AWS para alcançar seus concorrentes na corrida pelo mercado de IA, a companhia ainda tem alguns desafios para endereçar, como a falta de um modelo de ponta equivalente ao GPT-5 ou Gemini 3 Pro e a necessidade de convencer clientes a migrar de chips consolidados, como os da Nvidia, para suas soluções Trainium e Inferentia.
Para se destacar dos concorrentes, a AWS parece querer focar na experiência dos programadores, possibilitando que eles tenham mais tempo para criar, enquanto os agentes fazem o trabalho pesado de desenvolvimento.
“Os desenvolvedores estavam gastando muito tempo gerenciando infraestrutura, e não o suficiente construindo. Queremos reinventar cada processo na forma como todos nós trabalhamos”, apontou Matt.