A Amazon não quer mais depender da Nvidia para avançar seus projetos em inteligência artificial. E, para isso, a empresa de Jeff Bezos está investindo pesado na subsidiária Annapurna Labs para acelerar a produção de chips altamente tecnológicos que serão capazes de rodar as funcionalidades de IA.
Resumidamente, a companhia quer otimizar os próprios custos e os dos clientes da Amazon Web Services (AWS), aumentando a eficiência dos data centers através de chips mais potentes – e feitos com tecnologia própria.
Só neste ano, a expectativa é que a big tech gaste US$ 75 bilhões majoritariamente para infraestrutura tecnológica. O valor é significativamente maior do que o gasto no ano passado: US$ 48,4 bilhões.
E não deve parar por aí: na conferência de resultados do terceiro trimestre, o CEO Andy Jassy deu sinais de que os investimentos serão ainda maiores no ano que vem.
A “Loja de Tudo” não é a única. A Microsoft, a Meta e o Google também estão colocando a mão no bolso para desenvolver soluções próprias.
Esta pauta foi, inclusive, motivo de estresse no mercado, após a divulgação dos balanços do 3T24. Wall Street não recebeu muito bem o aumento nos gastos e acabou levando o Ibovespa junto para o “buraco”.
THANK YOU MISTER PRESIDENT
Amazon vs. Nvidia
Nas palavras do vice-presidente de serviços de rede e computação da AWS, Dave Brown, a Amazon quer ser “o melhor lugar para rodar [chips da] Nvidia”. No entanto, a empresa também acredita que “é saudável ter uma alternativa”.
A redução dos custos é uma das principais razões para a big tech querer se livrar da dependência da Nvidia.
Entre os projetos já em andamento, a empresa desenvolveu o chip de IA Inferentia, que reduz em 40% as despesas para gerar respostas de modelos de IA.
“O preço [da computação em nuvem] tende a ser muito maior quando se trata de aprendizado de máquina e IA”, explica Brown. “Quando você economiza 40% de US$ 1.000, isso não vai realmente afetar sua escolha. Mas quando você está economizando 40% em dezenas de milhões de dólares, isso sim afeta.”
Agora, a expectativa reside no lançamento de outro chip desenvolvido pela subsidiária Annapurna Labs: o Trainium 2. A tecnologia já está sendo testada por grandes companhias, como a Anthropic, concorrente da OpenAI que recebeu bilhões em incentivos da Amazon.
“Não é apenas sobre o chip, é sobre o sistema completo”, disse Rami Sinno, diretor de engenharia da Annapurna e ex-Intel.
Para fazer uma infraestrutura capaz de suportar IA, a Amazon (e as outras big techs que estão investindo em tecnologias próprias) precisa construir tudo do zero. “É realmente difícil fazer o que fazemos em escala. Não são muitas as empresas que conseguem”, afirma o diretor.
Seja como for, a empresa de Bezos ainda tem um longo caminho a percorrer para “minar” a dominância da Nvidia, que reportou US$ 26,3 bilhões em receita com vendas de chips para data centers de IA no segundo trimestre fiscal de 2024.
* Com informações do Financial Times.
Fonte: SeuDinheiro