- Sam Altman diz que o Openai passará em breve 1 milhão de GPUs e apontará mais 100 milhões
- A execução de 100 milhões de GPUs pode custar US $ 3 trilhões e quebrar os limites globais de infraestrutura de energia
- A expansão do OpenAI para o Oracle e a TPU mostra a crescente impaciência com os limites atuais de nuvem
O Openai diz que está a caminho de operar mais de um milhão de GPUs até o final de 2025, um número que já o coloca muito à frente dos rivais em termos de recursos de computação.
No entanto, para o CEO da empresa, Sam Altman, esse marco é apenas um começo: “Atravessamos mais de 1 milhão de GPUs trazidos on -line até o final deste ano”. Ele disse.
O comentário, entregue com leviandade aparente, provocou uma discussão séria sobre a viabilidade de implantar 100 milhões de GPUs no futuro próximo.
Uma visão muito além da escala atual
Para colocar esse número em perspectiva, o Xai de Elon Musk executa o Grok 4 em aproximadamente 200.000 GPUs, o que significa que a escala planejada de milhões de unidades da OpenAI já é cinco vezes esse número.
Escalar isso para 100 milhões, no entanto, envolveria custos astronômicos, estimado em cerca de US $ 3 trilhões, e representaria grandes desafios na fabricação, consumo de energia e implantação física.
“Muito orgulhoso da equipe, mas agora eles começam a trabalhar, descobrindo como 100x isso lol”, escreveu Altman.
Embora o Azure da Microsoft continue sendo a plataforma de nuvem principal do OpenAI, ela também fez parceria com a Oracle e está explorando os aceleradores de TPU do Google.
Inscreva -se no boletim do TechRadar Pro para obter todas as principais notícias, opinião, recursos e orientações que sua empresa precisa para ter sucesso!
Essa diversificação reflete uma tendência em todo o setor, com a meta, a Amazon e o Google também se movendo em direção a chips internos e uma maior dependência da memória de alta largura de banda.
A SK Hynix é uma das empresas que provavelmente se beneficiarão dessa expansão – à medida que a demanda da GPU aumenta, o mesmo ocorre com a demanda por HBM, um componente -chave no treinamento de IA.
De acordo com um membro do setor de data center, “em alguns casos, as especificações de GPUs e HBMs … são determinadas pelos clientes (como o OpenAI) … configurados de acordo com as solicitações dos clientes”.
O desempenho da SK Hynix já teve um forte crescimento, com previsões sugerindo um lucro operacional recorde no segundo trimestre de 2025.
A colaboração do Openai com o SK Group parece estar se aprofundando. O presidente Chey Tae-Won e o CEO Kwak No-Jung se reuniram recentemente com Altman, para fortalecer sua posição na cadeia de suprimentos de infraestrutura de IA.
O relacionamento se baseia em eventos anteriores, como a competição de IA da SK Telecom com o ChatGPT e a participação no MIT Genai Impact Consortium.
Dito isto, a rápida expansão da Openai levantou preocupações sobre a sustentabilidade financeira, com relatórios de que o SoftBank pode estar reconsiderando seu investimento.
Se a meta de 100 milhões de GPU da OpenAI se concretizar, isso exigirá não apenas capital, mas também grandes avanços na eficiência de computação, capacidade de fabricação e infraestrutura de energia global.
Por enquanto, o objetivo parece aspiracional, um sinal audacioso de intenção, e não um roteiro prático.
Via Tomshardware
Você também pode gostar
Postagens relacionadas
Deixe um comentário Cancelar resposta
Você precisa fazer o login para publicar um comentário.
Fique conectado