- Os novos modelos do OpenAI são executados com eficiência em hardware mínimo, mas não foram testados independentemente para cargas de trabalho
- Os modelos são projetados para casos de uso de arestas em que a infraestrutura em larga escala nem sempre está disponível
- O licenciamento do Apache 2.0 pode incentivar a experimentação mais ampla em regiões com requisitos de dados estritos
O OpenAI lançou dois modelos de peso aberto, GPT-OSS-120B e GPT-OSS-20B, posicionando-os como desafiantes diretos para ofertas como Deepseek-R1 e outros grandes modelos de aprendizado de idiomas (LLMS) atualmente moldando o ecossistema da IA.
Esses modelos estão agora disponíveis na AWS através de suas plataformas AA Amazon Bedrock e Amazon Sagemaker AI.
Isso marca a entrada do OpenAI no segmento de modelo de peso aberto, um espaço que até agora era dominado por concorrentes como AI e Meta.
Openai e AWS
O modelo GPT-OSS-120B é executado em uma única GPU de 80 GB, enquanto a versão 20B tem como alvo ambientes de borda com apenas 16 GB de memória necessária.
A OpenAI afirma que ambos os modelos oferecem um forte desempenho de raciocínio, combinando ou excedendo seu modelo O4-mini nos principais benchmarks.
No entanto, as avaliações externas ainda não estão disponíveis, deixando o desempenho real em cargas de trabalho variadas abertas ao escrutínio.
O que distingue esses modelos não é apenas seu tamanho, mas também a licença.
Inscreva -se no boletim do TechRadar Pro para obter todas as principais notícias, opinião, recursos e orientações que sua empresa precisa para ter sucesso!
Lançados no Apache 2.0, eles pretendem reduzir as barreiras de acesso e apoiar o desenvolvimento mais amplo de IA, particularmente em ambientes de alta segurança ou recursos limitados.
Segundo o Openai, esse movimento se alinha com sua missão mais ampla de tornar as ferramentas de inteligência artificial mais amplamente utilizáveis entre as indústrias e as geografias.
Na AWS, os modelos são integrados à infraestrutura corporativa via Amazon Bedrock AgentCore, permitindo a criação de agentes de IA capazes de realizar fluxos de trabalho complexos.
O OpenAI sugere que esses modelos são adequados para tarefas como geração de código, raciocínio científico e solução de problemas em várias etapas, especialmente onde são necessários raciocínio ajustável e saídas de cadeia de pensamentos.
Sua janela de contexto de 128K também suporta interações mais longas, como análise de documentos ou tarefas de suporte técnico.
Os modelos também se integram a ferramentas de desenvolvedor, suportando plataformas como VLLM, llama.cpp e abraço de abraço.
Com recursos como o Guardrails e o suporte futuro para bases de importação e conhecimento personalizadas, o OpenAI e a AWS estão lançando isso como uma base pronta para desenvolvedor para criar aplicativos escaláveis de IA.
Ainda assim, o lançamento parece parcialmente estratégico, posicionando o OpenAI como um participante importante na infraestrutura de modelo aberto, além de amarrar sua tecnologia mais de perto aos serviços da Web da Amazon, uma força dominante na computação em nuvem.
Fique conectado