A Notion recomeçou do zero para escalar IA agentiva em produtos de larga adoção. Segundo a reportagem da VentureBeat, em vez de continuar incrementando fluxos baseados em prompts, a empresa derrubou sua stack de IA e projetou uma nova arquitetura orientada a agentes, capaz de planejar e executar ações de forma autônoma e confiável em cenários empresariais complexos.
O que é IA agentiva — e por que isso muda o jogo
IA agentiva descreve sistemas que não apenas respondem a prompts, mas também:
- Planejam múltiplos passos para atingir um objetivo;
- Selecionam e usam ferramentas (por exemplo, buscar dados, consultar bases, editar conteúdos);
- Avaliavam o próprio progresso, ajustando o plano em tempo real;
- Podem operar de forma autônoma por janelas de tempo maiores, quando necessário.
Esse salto exige muito mais do que “engenharia de prompt”: pede orquestração robusta, governança de qualidade, telemetria de agentes e integração confiável com fontes de dados corporativas.
O que a Notion mudou na arquitetura
De acordo com a VentureBeat, a Notion adotou um modelo unificado de orquestração com subagentes modulares. Em termos práticos, isso significa que diferentes agentes especializados conseguem:
- Escolher e invocar ferramentas sozinhos (por exemplo, pesquisar em conteúdos da Notion ou no Slack, consultar/atualizar bases de dados, reescrever documentos);
- Executar ações em múltiplos passos e, quando faz sentido, em paralelo;
- Compor resultados intermediários, reduzindo retrabalho e latência desnecessária.
Em vez de tentar “colar” novas capacidades em fluxos antigos, a empresa redesenhou a base para acomodar agentes que planejam, agem e se autoavaliam, alinhados à evolução recente dos modelos de raciocínio e uso de ferramentas.
Qualidade e latência: como equilibrar precisão e velocidade
Um dos pontos críticos de IA agentiva é evitar alucinações e garantir utilidade sob restrições de tempo. A VentureBeat relata que a Notion:
- “Bifurca” avaliações para isolar a origem dos erros (por exemplo, se o problema vem do grounding, da ferramenta ou do raciocínio do agente);
- Mistura busca vetorial e mecanismos do tipo Elastic, LLMs como juiz (LLM-as-a-judge) e testes anotados por humanos para aferir precisão;
- Trata latência como variável de contexto: algumas tarefas justificam execuções autônomas mais longas (até cerca de 20 minutos), enquanto outras pedem respostas quase instantâneas.
Essa abordagem granular permite definir metas de qualidade e tempo por caso de uso — por exemplo, dar mais tempo para uma análise de documento complexo e menos para uma consulta pontual. Para o usuário final, o impacto é uma experiência mais previsível: quando a tarefa exige mais “razão e ação”, o sistema negocia desempenho e confiabilidade de modo transparente.
Integrações e uso de ferramentas: o centro da experiência
Em IA agentiva, as ferramentas são extensões do próprio raciocínio do agente. A Notion investiu em capacidades para que agentes escolham quando e como usar essas ferramentas — do search interno a integrações com apps do trabalho. Essa autonomia é o que transforma um assistente de texto em um operador capaz de realizar tarefas de ponta a ponta, como:
- Localizar informações relevantes em bases privadas e resumi-las;
- Preencher, corrigir e relacionar registros;
- Editar conteúdos com conhecimento de contexto do time e da empresa;
- Orquestrar sequências de ações sem supervisão constante.
Dogfooding e adoção: o que sustenta o ciclo de melhoria
Segundo a VentureBeat, a Notion reporta uma base de 100 milhões de usuários, adoção por 94% da lista Forbes AI 50 e clientes como OpenAI, Cursor, Figma, Ramp e Vercel. A empresa enfatiza o uso intensivo interno (dogfooding) e uma rede de parceiros de design para acelerar feedback e iterações.
Esse processo é típico de empresas que operam em fronteira: lançamentos graduais, métricas claras de qualidade/latência e análise contínua de logs para ajustar a orquestração de agentes e o catálogo de ferramentas.
Por que agora: a virada dos modelos de raciocínio
A guinada para agentes acontece porque os modelos de linguagem melhoraram sensivelmente em raciocínio, planejamento e uso de ferramentas. Em vez de depender de prompts extensos em “few-shot”, a proposta é delegar mais decisão ao agente — inclusive para escolher o melhor caminho entre múltiplas ferramentas.
Para times de produto e plataformas, isso sugere uma arquitetura de IA que prioriza:
- Orquestração de agentes como camada principal (não apenas “features” acopladas);
- Instrumentação para avaliar e corrigir o pipeline de decisão do agente;
- Camadas de grounding e recuperação (RAG) alinhadas a dados confiáveis de negócio;
- Controles de custo e latência por cenário.
Implicações para líderes de tecnologia
1) Repensar a base quando as capacidades mudam
O exemplo da Notion mostra que “remendos” em torno de prompts podem não escalar quando a ambição é IA agentiva de verdade. Às vezes, o caminho é refatorar a stack para abrigar planejamento, ferramenta e avaliação como “cidadãos de primeira classe”.
2) Latência é uma alavanca de produto
Nem toda tarefa precisa de resposta imediata. Ajustar o orçamento de tempo ao tipo de tarefa (e deixar isso claro para o usuário) melhora a qualidade percebida e reduz fricção. Em casos complexos, execuções mais longas — como as citadas pela VentureBeat — podem ser desejáveis.
3) Grounding e confiabilidade são vitais
Para reduzir alucinações, vale combinar busca vetorial, índices elásticos, julgamentos por LLM e validação humana amostral. O importante é medir de forma segmentada para saber onde corrigir: ferramenta, contexto, raciocínio do agente ou avaliação.
4) Tooling e ecossistema
Agentes são tão bons quanto suas ferramentas. Investir em integrações profundas com sistemas de trabalho (docs, chat, CRM, tickets) e em políticas de acesso/segurança é tão estratégico quanto escolher o modelo base.
O que observar a seguir
- Evolução de subagentes especializados para tarefas de conhecimento, análise e automação;
- Métricas padrão de “qualidade de agente” (além de acurácia de LLM), incluindo sucesso por objetivo, retrabalho, custo e tempo;
- Melhorias em governança: logs interpretáveis, limites de ação e revisões humanas seletivas;
- Expansão do catálogo de ferramentas e melhores práticas de seleção dinâmica pelo agente.
Em síntese, a decisão da Notion de reconstruir sua stack para IA agentiva aponta uma tendência: empresas que querem ir além do chat precisam tratar orquestração, ferramentas e avaliação como pilares, não acessórios. A recompensa é um assistente que age com contexto e confiabilidade, desbloqueando ganhos reais de produtividade.
Fonte: https://venturebeat.com/ai/to-scale-agentic-ai-notion-tore-down-its-tech-stack-and-started-fresh


