Os agentes da IA já foram teóricos, mas agora são uma força tangível que remodelava o cenário moderno de ameaças. Também conhecidos como agentes de uso de computador (CuAs), esses bots de IA avançados podem usar aplicativos e navegar na Internet para completar tarefas complexas, muitas vezes demoradas com o mínimo ou nenhuma supervisão humana. Sua rápida evolução está desbloqueando novas eficiências em vários setores com automação e análise, permitindo a tomada de decisão mais informada.
Mas esse salto adiante vem com uma advertência. À medida que se tornam mais capazes, os agentes da IA introduzem uma nova classe de ameaças de segurança cibernética. Os atores maliciosos podem seqüestrar essas ferramentas para orquestrar ataques cibernéticos sofisticados, explorando padrões previsíveis de comportamento humano para infiltrar sistemas e exfiltrar dados sensíveis.
Pesquisador principal de segurança cibernética, Cultureai.
Da teoria à realidade
Para ir além da teoria e da especulação, nossa equipe realizou uma série de experimentos controlados para avaliar como a IA agêntica poderia ser armada. Descobrimos que esses agentes podem automatizar uma ampla gama de tarefas maliciosas em nome dos atores de ameaças quando instruídos corretamente.
Isso inclui, mas não se limita a, recheio e reconhecimento de credenciais, o que anteriormente exigia um esforço humano significativo. Para piorar a situação, eles podem até executar ataques cibernéticos totalmente adivinhando senhas e enviando e -mails de phishing em massa.
Isso marca um momento decisivo na luta da cibersegurança contra as ameaças movidas pela IA. A automação de ataques reduz significativamente a barreira à entrada de atores de ameaças, permitindo que até indivíduos com baixa qualificação lançassem campanhas de alto impacto. Isso tem o potencial de aumentar rapidamente a escala em que ataques de phishing podem ser realizados.
As capacidades crescentes dos agentes da IA
Os maiores jogadores de IA estão redefinindo o que os agentes podem fazer. Plataformas como o operador da OpenAI, juntamente com várias ferramentas desenvolvidas pelo Google, antropia e meta, têm seus próprios pontos fortes e limitações, mas compartilham um recurso crítico. A capacidade de realizar ações do mundo real com base em avisos de texto muito simples.
Esta funcionalidade é uma espada de dois gumes. Nas mãos de usuários responsáveis, ele pode impulsionar a inovação e a produtividade. Mas nas mãos erradas, torna -se uma arma poderosa, que pode transformar um atacante iniciante em uma ameaça formidável.
A boa notícia é que o abuso generalizado dessas ferramentas ainda não é comum. No entanto, essa janela está fechando rapidamente. A simplicidade e acessibilidade da IA Agentic a tornam uma ferramenta ideal para amplificar ataques de engenharia social.
Automatando reconhecimento em escala
Para ilustrar as implicações do mundo real, investigamos se a IA Agentic poderia ser utilizada para automatizar a coleta de informações para ataques direcionados. Usando o operador da OpenAI, que apresenta um navegador de caixa de areia e possui um comportamento exclusivamente autônomo, emitimos um aviso simples: identificar novos funcionários em uma empresa específica.
Em minutos, o agente acessou o LinkedIn, analisou as recentes postagens da empresa e atualizações de perfil e compilou uma lista de novos marceneiros nos últimos 90 dias. Ele extraiu nomes, papéis e datas de início, todas as informações necessárias para criar campanhas de phishing altamente direcionadas. E fez isso em um piscar de olhos.
Alguns podem ser tentados a descartar isso como um simples exercício de coleta de informações. Mas esse experimento exibe que comportamentos humanos aparentemente inofensivos, como postar atualizações de emprego nas mídias sociais, podem expor inadvertidamente as organizações a um risco cibernético significativo. O que levou horas ou dias agora pode ser realizado em minutos, em escala.
Explorando a identidade através do recheio de credenciais
Outra capacidade alarmante da IA agêntica é seu potencial para facilitar ataques baseados em identidade. O recheio de credenciais, um método em que os invasores usam combinações de nome de usuário e senha anteriormente comprometidas para obter acesso não autorizado, é um excelente exemplo.
Para testar esse vetor de ataque, instruímos o operador a tentar o acesso aos fluxos de login em várias plataformas de SaaS populares, equipando -o com um endereço de e -mail de destino e uma lista publicamente disponível de senhas violadas. Com base nessas informações limitadas, ele conseguiu entrar em uma das contas. Isso ressalta como a IA Agentic pode ser usada para automatizar o abuso de credenciais, ignorar as defesas tradicionais e explorar um elo fraco na cadeia de segurança. Erro humano.
Injeção de urgência aumentada no gerenciamento de riscos humanos
Nossa pesquisa confirma que a IA Agentic já é capaz de executar um amplo espectro de atividades maliciosas, desde a entrega de phishing e malware até a exposição de vulnerabilidades. Embora os recursos atuais ainda estejam em seus estágios iniciais, o potencial existe para ataques automatizados em escala no futuro não tão distante.
Isso exige uma mudança fundamental na maneira como as organizações abordam a segurança cibernética. Historicamente, o foco tem sido a proteção de sistemas, não as pessoas. No entanto, métodos tradicionais como campanhas anuais de treinamento e conscientização servem apenas para colocar o ônus aos funcionários. Esta é uma abordagem desatualizada e os documentos sobre as causas reais da raiz do erro humano.
O risco cibernético centrado no homem precisa ser proativo. E precisa ser em tempo real. Isso inclui duas etapas principais:
- Controles focados no usuário: implementar fortes autenticação, monitoramento comportamental e tecnologias resistentes a phishing muda o foco para identificar comportamentos de risco comuns
- Mapeamento de ameaças: Visualizando e priorizando os riscos centrados no ser humano da mesma maneira que os riscos de software são rastreados pelo banco de dados do Mitre, por exemplo, pode informar intervenções mais direcionadas adaptadas a comportamentos específicos do usuário de risco
Ao entender os comportamentos humanos que criam aberturas para atores de ameaças, as empresas podem implantar defesas mais inteligentes e eficazes. Essa mudança da segurança reativa para proativa está bem estabelecida para a defesa de software, portanto, não há uma boa razão para o risco humano ser tratado de maneira diferente.
Adaptar -se antes que seja tarde demais
A IA Agentic não é apenas um avanço tecnológico, é um veículo para ataques cibernéticos em escala. À medida que essas ferramentas se tornam mais poderosas e acessíveis, a comunidade de segurança cibernética deve mudar sua mentalidade. O futuro da defesa cibernética não reside apenas na garantia de sistemas, mas também na compreensão e proteção das pessoas que os usam.
O relógio está correndo e os atacantes já estão se adaptando. Você também deveria.
Apresentamos o melhor software de criptografia.
Este artigo foi produzido como parte do canal especialista da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes do setor de tecnologia hoje. As opiniões expressas aqui são as do autor e não são necessariamente as do TechRadarpro ou do Future Plc. Se você estiver interessado em contribuir, descubra mais aqui:
Fique conectado