Como a IA está transformando os ciberataques, segundo Ami Luttwak, da Wiz

A inteligência artificial não está apenas acelerando o desenvolvimento de software: ela também está mudando a forma como os ciberataques são planejados, executados e escalados. Em entrevista ao TechCrunch, Ami Luttwak, chief technologist da Wiz, detalha como a IA vem reconfigurando tanto a superfície de ataque quanto as estratégias de defesa. A mensagem central é direta: a segurança precisa acompanhar a velocidade da IA — e isso vale de startups enxutas a grandes empresas. No mundo de agentes autônomos, integrações SaaS e cadeias de suprimentos de software altamente conectadas, atrasar a segurança significa abrir espaço para invasões mais rápidas, silenciosas e baratas.

O que mudou com a IA nos ciberataques

Ferramentas de IA generativa e agentes capazes de orquestrar ações em APIs, consoles de nuvem e repositórios estão encurtando o ciclo entre reconhecimento, exploração e movimentação lateral. Em vez de depender apenas de scripts fixos, atacantes combinam modelos de linguagem com automações para: mapear ativos externos, redigir e personalizar mensagens de engenharia social, analisar erros de configuração em nuvem, sugerir payloads plausíveis e testar variações em alta velocidade. O resultado é um aumento de escala e precisão que pressiona os controles tradicionais de prevenção e detecção.

Da “vibe coding” à “vibe security”

Com IA ajudando equipes de produto a codar mais rápido (“vibe coding”), surge a dívida de segurança de IA: configurações padrão permissivas, prompts sem políticas, agentes com acesso amplo demais e dependência de integrações pouco auditadas. Luttwak sustenta que a resposta é incorporar segurança ao fluxo de trabalho orientado por IA, em vez de tratá-la como uma etapa posterior. Isso inclui padronizar como prompts são redigidos, como agentes obtêm credenciais e quais ações podem executar em ambientes de produção.

Por que isso importa para empresas de todos os portes

  • Integrações como chatbots, conectores de CRM e plugins de automação multiplicam caminhos de entrada, muitas vezes com escopos de permissões extensos.
  • Agentes e assistentes de desenvolvimento podem introduzir código inseguro ou dependências maliciosas se não houver validação sistemática.
  • Tokens, chaves de API e credenciais de CI/CD tornaram-se alvos preferenciais — um vazamento pode conceder acesso profundo e persistente.
  • A velocidade de ataque encurta o “tempo de oportunidade” de detecção e resposta; processos manuais ficam para trás.

Como os ataques assistidos por IA se desenrolam hoje

  • Reconhecimento e phishing sob medida: IA produz mensagens convincentes, segmentadas por cargo, processo e tecnologia usados.
  • Abuso de integrações SaaS: permissões amplas e tokens longevos viram ponto de pivô para consultas em massa e exfiltração.
  • Exploração de cadeia de suprimentos de software: bibliotecas, ferramentas de build e extensões de IDE tornam-se vetores para infiltração.
  • Automação de testes de credenciais e políticas fracas: agentes roteirizam tentativas, leem respostas e adaptam o próximo passo.

Boas práticas defendidas por líderes do setor

O recado recorrente no mercado — enfatizado por Luttwak — é que segurança precisa nascer junto com a adoção de IA e agentes. Isso implica mudanças técnicas e organizacionais.

1) Segurança desde o primeiro commit

  • Padronize templates de prompts com políticas embutidas (limites de ação, dados permitidos, fontes confiáveis).
  • Exija revisão e testes para todo código gerado por IA; habilite SAST, SCA e varredura de segredos em cada alteração.
  • Defina trilhas de auditoria para decisões de agentes e registre as ferramentas que eles utilizam.

2) Proteção de credenciais e integrações

  • Use escopos mínimos e rotação frequente para tokens e chaves de API; evite tokens de longa duração.
  • Monitore anomalias em chamadas de API, volume e padrões de consulta vindos de integrações.
  • Estabeleça um processo rigoroso para homologar plugins, conectores e apps de terceiros antes do uso em ambiente produtivo.

3) Cadeia de suprimentos de software segura

  • Endureça pipelines de CI/CD com publicações assinadas, segredos efêmeros e isolamento por projeto.
  • Evite gatilhos de automação que executem código de fontes não confiáveis;
  • Controle extensões de IDE e ferramentas de linha de comando utilizadas por desenvolvedores.

4) Detecção e resposta em tempo de execução

  • Instrumente workloads de nuvem e SaaS para visibilidade de comportamento de contas, tokens e agentes.
  • Planeje contenção por corte de acesso na origem (revogar tokens, pausar pipelines, bloquear chaves comprometidas) e correção de causa raiz.
  • Teste planos de resposta com exercícios focados em incidentes que envolvam IA e integrações.

Governança e métricas para a diretoria

  • Inventário de agentes, modelos e integrações em uso, com proprietários e níveis de risco atribuídos.
  • Tempo para revogar e rotacionar credenciais críticas, da detecção à contenção.
  • Porcentagem de repositórios cobertos por varredura de segredos e dependências.
  • Taxa de prompts e fluxos de agente revisados e testados antes de produção.
  • Critérios de homologação de fornecedores de IA e plugins, incluindo due diligence de segurança.

Implicações nos próximos 12 meses

  • Padronização de “guardrails” para agentes, com políticas de ação e auditoria embutidas.
  • Maior integração entre segurança de aplicações, nuvem e SaaS — com foco em identidade, tokens e permissão mínima.
  • Convergência de ferramentas que unem postura preventiva (secure by design) e telemetria de runtime para resposta ágil.
  • Pressão regulatória e de clientes corporativos para evidências de segurança em fluxos com IA.

Glossário rápido

  • LLM (modelo de linguagem): sistema que gera e interpreta texto, código e instruções.
  • Agente: software que usa IA para decidir e executar ações em ferramentas e APIs.
  • Cadeia de suprimentos de software: conjunto de dependências, pipelines e serviços usados para construir e distribuir software.
  • OAuth/token: mecanismo de autorização por escopos que concede acesso a recursos sem expor senha.
  • RAG: técnica que combina recuperação de conhecimento com geração por IA para respostas mais precisas.

Checklist essencial para hoje

  • Mapeie todos os agentes, plugins e integrações em uso e reduza permissões ao mínimo necessário.
  • Padronize prompts e políticas para IA; registre decisões e ações tomadas por agentes.
  • Habilite varredura de segredos, SAST e SCA em todos os repositórios, inclusive monorepos e forks.
  • Assine publicações e reforce pipelines de CI/CD com segredos efêmeros.
  • Implemente detecção de anomalias em SaaS e nuvem; treine a resposta com cenários que envolvam IA.

Em síntese, a IA transformou a assimetria entre atacantes e defensores. A resposta passa por acelerar a segurança com o mesmo motor de automação: políticas claras para agentes, proteção rigorosa de identidade e tokens, e telemetria de runtime que encurte a distância entre achar, conter e corrigir.

Fonte: https://techcrunch.com/2025/09/28/wiz-chief-technologist-ami-luttwak-on-how-ai-is-transforming-cyberattacks/

Fale com a Lia

Olá 👋, para iniciarmos o atendimento nos informe seu nome e telefone

Ao clicar no botão iniciar conversa, você será direcionado para o nosso Whatsapp e um de nossos atendentes lhe atenderá  em seguida.