- O CEO da Openai, Sam Altman, disse que os testes GPT-5 o deixaram assustado em uma entrevista recente
- Ele comparou o GPT-5 ao projeto de Manhattan
- Ele alertou que o rápido avanço da IA está acontecendo sem supervisão suficiente
O chefe do Openai, Sam Altman, pintou um retrato do GPT -5 que se parece mais como um thriller do que um lançamento do produto. Em um episódio recente do Neste fim de semana passado com Theo von Podcast, ele descreveu a experiência de testar o modelo em tons sem fôlego que evocam mais ceticismo do que qualquer alarme que ele parecia querer ouvir os ouvintes.
Altman disse que o GPT-5 “se sente muito rápido”, enquanto conta momentos em que se sentiu muito nervoso. Apesar de ser a força motriz por trás do desenvolvimento do GPT-5, Altman afirmou que, durante algumas sessões, ele olhou para o GPT-5 e o comparou ao projeto de Manhattan.
Altman também emitiu uma acusação empolgante da governança atual da IA, sugerindo “não há adultos na sala” e que as estruturas de supervisão ficaram para trás do desenvolvimento da IA. É uma maneira estranha de vender um produto prometendo saltos graves na inteligência geral artificial. Aumentar os riscos potenciais é uma coisa, mas agir como se ele não tivesse controle sobre o desempenho do GPT-5 parece um tanto falso.
O CEO da Openai, Sam Altman: “Parece muito rápido”. – “Enquanto testava o GPT5, eu fiquei com medo” – “Olhando para ele pensar: o que fizemos … como no projeto de Manhattan” – “Não há adultos na sala” de r/chatgpt
Análise: temores existenciais do GPT-5
O que assustou Altman também não é totalmente claro. Altman não entrou em detalhes técnicos. Invocar o projeto de Manhattan é outro tipo de analogia exagerada. Sinalizar mudanças irreversíveis e potencialmente catastróficas e apostas globais parecem estranhas como uma comparação com um complemento automático sofisticado. Dizer que eles construíram algo que eles não entendem completamente fazem o OpenAi parecer imprudente ou incompetente.
O GPT-5 deve sair em breve, e há dicas de que ele se expandirá muito além das habilidades do GPT-4. A “mente digital” descrita nos comentários de Altman poderia realmente representar uma mudança na maneira como as pessoas que construem ai consideram seu trabalho, mas esse tipo de projeção messiânica ou apocalíptica parece boba. O discurso público em torno da IA alternou principalmente entre otimismo sem fôlego e pavor existencial, mas algo no meio parece mais apropriado.
Esta não é a primeira vez que Altman reconhece publicamente seu desconforto com a corrida armamentista da IA. Ele está registrado dizendo que a IA poderia “dar errado” e que o OpenAI deve agir com responsabilidade enquanto ainda envia produtos úteis. Mas, embora o GPT-5 quase certamente chegue com melhores ferramentas, interfaces mais amigáveis e um logotipo um pouco mais rápido, a questão principal que ele levanta é sobre poder.
A próxima geração de IA, se for mais rápida, mais inteligente e mais intuitiva, será entregue ainda mais responsabilidade. E isso seria uma má idéia baseada nos comentários de Altman. E mesmo que ele esteja exagerando, não sei se esse é o tipo de empresa que deve estar decidindo como esse poder é implantado.
Inscreva -se em notícias, críticas, opinião, principais acordos de tecnologia e muito mais.
Fique conectado