Gigantes da tecnologia formam um grupo do setor para ajudar a desenvolver componentes de chips de IA de próxima geração

Intel, Google, Microsoft, Meta e outras gigantes da tecnologia estão estabelecendo um novo grupo do setor, o Ultra Accelerator Link (UALink) Promoter Group, para orientar o desenvolvimento dos componentes que conectam os chips aceleradores de IA nos data centers. Anunciado na quinta-feira, o UALink Promoter Group - que também conta com a AMD (mas não a Arm), Hewlett Packard Enterprise, Broadcom e Cisco entre seus membros - está propondo um novo padrão do setor para conectar os chips aceleradores de IA encontrados em um número crescente de servidores. Amplamente definidos, os aceleradores de IA são chips que vão desde GPUs até soluções projetadas sob medida para acelerar o treinamento, aperfeiçoamento e execução de modelos de IA. "A indústria precisa de um padrão aberto que possa avançar muito rapidamente, em um [formato] aberto que permita que várias empresas adicionem valor ao ecossistema como um todo", disse Forrest Norrod, GM da AMD de soluções de data center, em uma entrevista coletiva na quarta-feira. "A indústria precisa de um padrão que permita que a inovação prossiga em um ritmo rápido, sem restrições de qualquer empresa individual." A versão um do padrão proposto, UALink 1.0, irá conectar até 1.024 aceleradores de IA - apenas GPUs - em um 'pod' computacional único. (O grupo define um pod como um ou vários racks em um servidor.) O UALink 1.0, baseado em 'padrões abertos', incluindo o Infinity Fabric da AMD, permitirá carregamentos e armazenamentos diretos entre a memória conectada aos aceleradores de IA, e geralmente aumentará a velocidade, ao mesmo tempo que diminuirá a latência de transferência de dados em comparação com as especificações de interconexão existentes, de acordo com o UALink Promoter Group. O grupo diz que criará um consórcio, o UALink Consortium, no terceiro trimestre para supervisionar o desenvolvimento da especificação UALink no futuro. O UALink 1.0 estará disponível aproximadamente ao mesmo tempo para as empresas que se juntarem ao consórcio, com uma especificação atualizada de largura de banda mais alta, o UALink 1.1, previsto para chegar no quarto trimestre de 2024. Os primeiros produtos UALink serão lançados 'nos próximos anos', disse Norrod. Notavelmente ausente da lista de membros do grupo está a Nvidia, que é de longe o maior produtor de aceleradores de IA com uma participação de mercado estimada entre 80% e 95%. A Nvidia se recusou a comentar essa história. Mas não é difícil entender por que a fabricante de chips não está apoiando entusiasticamente o UALink. Em primeiro lugar, a Nvidia oferece sua própria tecnologia de interconexão proprietária para ligar GPUs dentro de um servidor de data center. A empresa provavelmente não está muito disposta a apoiar uma especificação baseada em tecnologias concorrentes. Além disso, há o fato de que a Nvidia opera a partir de uma posição de enorme força e influência. No último trimestre fiscal da Nvidia (Q1 2025), as vendas do data center da empresa, que incluem as vendas de seus chips de IA, aumentaram mais de 400% em relação ao mesmo trimestre do ano anterior. Se a Nvidia continuar em sua trajetória atual, está prestes a superar a Apple como a segunda empresa mais valiosa do mundo ainda este ano. Simplificando, a Nvidia não precisa jogar se não quiser. Quanto à Amazon Web Services (AWS), a única gigante de nuvem pública que não contribui para o UALink, pode estar em um modo de "esperar para ver" enquanto avança em seus diversos esforços de hardware acelerador interno. Também pode ser que a AWS, com um domínio no mercado de serviços em nuvem, não veja muito ponto estratégico em se opor à Nvidia, que fornece muitas das GPUs que ela oferece aos clientes. A AWS não respondeu ao pedido de comentário do TechCrunch. De fato, os maiores beneficiários do UALink - além da AMD e Intel - parecem ser a Microsoft, Meta e Google, que juntas gastaram bilhões de dólares em GPUs da Nvidia para alimentar suas nuvens e treinar seus modelos de IA em constante crescimento. Todos estão procurando se desvencilhar de um fornecedor que veem como dominante de forma preocupante no ecossistema de hardware de IA. O Google tem chips personalizados para treinar e executar modelos de IA, TPUs e Axion. A Amazon tem várias famílias de chips de IA em seu arsenal. A Microsoft entrou na briga no ano passado com Maia e Cobalt. E a Meta está aprimorando sua própria linha de aceleradores. Enquanto isso, a Microsoft e seu colaborador próximo, OpenAI, planejam gastar pelo menos US$ 100 bilhões em um supercomputador para treinar modelos de IA que serão equipados com futuras versões de chips Cobalt e Maia. Esses chips precisarão de algo para conectá-los - e talvez seja o UALink.