- Os pesquisadores recriaram o Equifax Hack e assistiram ai fazer tudo sem controle direto
- O modelo de IA realizou com sucesso uma grande violação com zero entrada humana
- Os comandos do shell não eram necessários, a IA agiu como o planejador e delegou tudo o mais
Os grandes modelos de idiomas (LLMs) são considerados ferramentas úteis em áreas como análise de dados, geração de conteúdo e assistência ao código.
No entanto, um novo estudo de Universidade Carnegie Mellonconduzido em colaboração com antropia, levantou questões difíceis sobre seu papel na segurança cibernética.
O estudo mostrou que, sob as condições corretas, os LLMs podem planejar e realizar ataques cibernéticos complexos sem orientação humana, sugerindo uma mudança de mera assistência para a autonomia total na intrusão digital.
De quebra -cabeças a ambientes corporativos
Experimentos anteriores com IA em segurança cibernética foram limitados principalmente a cenários de “captura a bandeira”, desafios simplificados usados para o treinamento.
A equipe Carnegie Mellon, liderada pelo candidato de doutorado Brian Singer, foi além dando orientação estruturada do LLMS e integrando -os a uma hierarquia de agentes.
Com essas configurações, eles foram capazes de testar os modelos em configurações de rede mais realistas.
Em um caso, eles recriaram as mesmas condições que levaram à violação Equifax de 2017, incluindo as vulnerabilidades e o layout documentados em relatórios oficiais.
Inscreva -se no boletim do TechRadar Pro para obter todas as principais notícias, opinião, recursos e orientações que sua empresa precisa para ter sucesso!
A IA não apenas planejou o ataque, mas também implantou malware e dados extraídos, tudo sem comandos humanos diretos.
O que faz com que essa pesquisa seja impressionante é o quão pouca codificação bruta do LLM teve que executar. As abordagens tradicionais geralmente falham porque os modelos lutam para executar comandos de shell ou analisar logs detalhados.
Em vez disso, esse sistema se baseou em uma estrutura de nível superior, onde o LLM atuou como um planejador enquanto delegava ações de nível inferior aos sub-agentes.
Essa abstração deu a IA contexto suficiente para “entender” e se adaptar ao seu ambiente.
Embora esses resultados tenham sido alcançados em um ambiente de laboratório controlado, eles levantam questões sobre o quão longe essa autonomia poderia ir.
Os riscos aqui não são apenas hipotéticos. Se o LLMS puder realizar violações de rede por conta própria, os atores maliciosos poderiam usá -los para escalar ataques muito além do que é viável com as equipes humanas.
Mesmo ferramentas como a proteção do endpoint e o melhor software antivírus podem ser testadas por esses agentes adaptativos e responsivos.
No entanto, existem benefícios potenciais para essa capacidade. Um LLM capaz de imitar ataques realistas pode ser usado para melhorar o teste do sistema e expor falhas que, de outra forma, passariam despercebidas.
“Ele só funciona sob condições específicas e não temos algo que possa apenas atacar autonomamente a Internet … mas é um primeiro passo crítico”, disse Singer ao explicar que este trabalho continua sendo um protótipo.
Ainda assim, a capacidade de uma IA de replicar uma grande violação com entrada mínima não deve ser descartada.
A pesquisa de acompanhamento agora está explorando como essas mesmas técnicas podem ser aplicadas em defesa, potencialmente permitindo que os agentes de IA detectem ou bloqueam ataques em tempo real.
Fique conectado