Amazon quer fabricar chips de IA que possam rivalizar com a Nvidia

Financial Times; A Amazon está pronta para lançar seus mais novos chips de inteligência artificial, enquanto o grupo Big Tech busca retornos em seus investimentos multibilionários em semicondutores e reduz sua dependência do líder de mercado Nvidia.

Executivos da divisão de computação em nuvem da Amazon estão investindo pesado em chips personalizados na esperança de aumentar a eficiência dentro de suas dezenas de centros de dados, reduzindo seus próprios custos, bem como os de clientes da Amazon Web Services.

O esforço é liderado pela Annapurna Labs, uma startup de chips sediada em Austin que a Amazon adquiriu no início de 2015 por US$ 350 milhões (R$ 1,9 bilhão). O trabalho mais recente da Annapurna deve ser apresentado no próximo mês, quando a Amazon anunciará a disponibilidade generalizada do Trainium 2, parte de uma linha de chips de IA destinados ao treinamento dos maiores modelos.

O Trainium 2 já está sendo testado pela Anthropic —concorrente da OpenAI que recebeu US$ 4 bilhões (R$ 22,8 bilhões) de investimento da Amazon— bem como pela Databricks, Deutsche Telekom e pelas empresas japonesas Ricoh e Stockmark.

O objetivo da AWS e da Annapurna é competir com a Nvidia, uma das empresas mais valiosas do mundo graças à sua dominação do mercado de processadores de IA.

“Queremos ser absolutamente o melhor lugar para executar a Nvidia”, disse Dave Brown, vice-presidente de serviços de computação e rede da AWS. “Mas ao mesmo tempo, achamos saudável ter uma alternativa.” A Amazon disse que o ‘Inferentia’, outra de suas linhas de chips de IA especializados, já é 40% mais barato para executar na geração de respostas a partir de modelos de IA.

“O preço [da computação em nuvem] tende a ser muito maior quando se trata de aprendizado de máquina e IA”, disse Brown. “Quando você economiza 40% de US$ 1.000 (cerca de R$ 6.000), isso realmente não afeta sua escolha. Mas quando você está economizando 40% em dezenas de milhões de dólares, isso faz diferença.”

A Amazon agora espera cerca de US$ 75 bilhões (R$ 427 bilhões) em gastos de capital em 2024, com a maioria em infraestrutura tecnológica. Na última teleconferência de resultados da empresa, o CEO Andy Jassy disse que espera que a empresa gaste ainda mais em 2025.

Isso representa um aumento em relação a 2023, quando gastou US$ 48,4 bilhões (R$ 275 bilhões) durante todo o ano. Os maiores provedores de nuvem, incluindo Microsoft e Google, estão todos envolvidos em uma onda de gastos em IA que mostra pouco sinal de desaceleração.

Amazon, Microsoft e Meta são grandes clientes da Nvidia, mas também estão projetando seus próprios chips de data center para lançar as bases para o que esperam ser uma onda de crescimento em IA.

“Cada um dos grandes provedores de nuvem está se movendo freneticamente em direção a uma pilha de tecnologia de chips mais verticalizada e, se possível, homogeneizada e integrada”, disse Daniel Newman, do The Futurum Group.

“Todos, desde a OpenAI até a Apple, estão procurando construir seus próprios chips”, observou Newman, enquanto buscam “menor custo de produção, margens mais altas, maior disponibilidade e mais controle”.

“Não se trata [apenas] do chip, trata-se do sistema completo”, disse Rami Sinno, diretor de engenharia da Annapurna e veterano da Arm da SoftBank e da Intel.

Para a infraestrutura de IA da Amazon, isso significa construir tudo desde o início, desde a pastilha de silício até os racks de servidores nos quais são instalados, tudo sustentado pelo software e arquitetura proprietários da Amazon. “É realmente difícil fazer o que fazemos em escala. Não são muitas empresas que conseguem”, disse Sinno.

Depois de começar construindo um chip de segurança para a AWS chamado Nitro, a Annapurna desenvolveu várias gerações de Graviton, suas unidades centrais de processamento baseadas em Arm que oferecem uma alternativa de baixo consumo de energia aos tradicionais cavalos de batalha de servidores fornecidos pela Intel ou AMD.”

A grande vantagem da AWS é que seus chips podem usar menos energia, e seus data centers talvez possam ser um pouco mais eficientes,” disse G Dan Hutcheson, analista da TechInsights. Se as unidades de processamento gráfico da Nvidia são ferramentas poderosas de propósito geral —em termos automotivos, como uma perua ou uma perua perua —a Amazon pode otimizar seus chips para tarefas e serviços específicos, como um compacto ou hatchback, disse ele.

Até agora, no entanto, a AWS e a Annapurna mal arranharam a dominância da Nvidia na infraestrutura de IA.

A Nvidia registrou US$ 26,3 bilhões (quase R$ 150 bilhões) em receita com vendas de chips para data centers de IA em seu segundo trimestre fiscal de 2024. Esse valor é o mesmo anunciado pela Amazon para toda a sua divisão AWS em seu próprio segundo trimestre fiscal —apenas uma fração relativamente pequena da qual pode ser atribuída a clientes executando cargas de trabalho de IA na infraestrutura da Annapurna, de acordo com Hutcheson.

Quanto ao desempenho bruto dos chips da AWS em comparação com os da Nvidia, a Amazon evita fazer comparações diretas e não submete seus chips a benchmarks de desempenho independentes.

“Os benchmarks são bons para aquela primeira pergunta: ‘ei, devo considerar este chip?’”, disse Patrick Moorhead, consultor de chips da Moor Insights & Strategy, mas o verdadeiro teste é quando eles são colocados “em vários racks juntos como uma frota”.

Moorhead disse estar confiante de que as alegações da Amazon de um aumento de desempenho 4 vezes entre o Trainium 1 e o Trainium 2 são precisas, tendo examinado a empresa por anos. Mas os números de desempenho podem importar menos do que simplesmente oferecer aos clientes mais opções.

“As pessoas apreciam toda a inovação que a Nvidia trouxe, mas ninguém está confortável com a Nvidia tendo 90% de participação de mercado,” acrescentou. “Isso não pode durar muito tempo.”

https://www1.folha.uol.com.br/mercado/2024/11/amazon-intensifica-esforcos-para-fabricar-chips-de-ia-que-possam-rivalizar-com-a-nvidia.shtml

Comentários estão desabilitados para essa publicação