TRILHA 1

🌱 Fundamentos

O que é o DeerFlow 2.0, como instalar, como usar no dia a dia. Sem mexer em código. Ao final, você opera o harness para pesquisas, análises e relatórios reais — e sabe onde ele te ajuda e onde atrapalha.

7
Módulos
44
Tópicos
~4h
Duração
Básico
Nível

Navegação Rápida

Conteúdo Detalhado

Explore os tópicos de cada módulo sem sair desta página.

1.1~30 min · Teoria

🔭 Big Picture

O que é um super agent harness, a virada da v1 para a v2 e os 5 pilares que sustentam o DeerFlow.

O que é:

Um harness que orquestra sub-agents, memória e sandboxes por meio de skills extensíveis — é a camada entre o LLM e tudo que ele precisa fazer.

Por que aprender:

Quem confunde harness com framework acaba reescrevendo coisas prontas. Quem confunde com chatbot subestima o que um harness resolve.

Conceitos-chave:

Harness = orquestrador; skills = capacidades plugáveis; sandbox = execução isolada; sub-agents = delegação controlada.

O que é:

A v2 é uma reescrita completa. Não compartilha código com a v1, que era focada em Deep Research. A v2 é um harness de uso geral.

Por que aprender:

Muita documentação antiga ainda circula. Saber diferenciar evita procurar coisas no lugar errado e aplicar padrões obsoletos.

Conceitos-chave:

v1 = pipeline fixo; v2 = grafo LangGraph + skills; não há migração automática; ambos coexistem no ecossistema.

O que é:

Unidades de capacidade que o agente aciona quando o contexto bate. Cada skill tem um escopo, um prompt e (opcionalmente) tools próprias.

Por que aprender:

Skills são o principal ponto de extensão. Entender o contrato de uma skill é pré-requisito para usar o DeerFlow fora do mínimo.

Conceitos-chave:

Trigger accuracy (descrição clara); auto-seleção pelo lead_agent; catálogo público maduro; criação via meta-skill skill-creator.

O que é:

Agentes filhos que o agente principal invoca para fazer um pedaço da tarefa com contexto isolado e retornar só o resultado útil.

Por que aprender:

Sub-agents protegem a janela de contexto do agente principal. Sem eles, pesquisas longas contaminam o contexto com lixo intermediário.

Conceitos-chave:

Isolamento de contexto; retorno resumido; diferente de custom agent; essencial para research e refatorações longas.

O que é:

O ambiente onde código gerado pelo agente roda. Três modos: Local, Docker e Kubernetes — cada um com trade-off entre conveniência e segurança.

Por que aprender:

Rodar script gerado por LLM no host é como executar email attachment. O modo de sandbox é uma decisão de risco, não de performance.

Conceitos-chave:

Local = rápido, perigoso; Docker = default razoável; K8s = produção e multi-tenant; imagem customizável; quotas de recurso.

O que é:

O conjunto de técnicas que decidem o que entra e o que sai da janela de contexto em cada turno do agente.

Por que aprender:

O que faz o agente parecer "burro" quase sempre é contexto mal gerido, não modelo fraco. Entender isso derruba 80% das frustrações.

Conceitos-chave:

Compactação automática; summarization de histórico; prioridade de memórias; perda silenciosa quando a janela enche.

O que é:

Armazenamento de longo prazo que sobrevive a conversas. Guarda perfil do usuário, preferências, fatos do projeto e referências externas.

Por que aprender:

Memória mal usada vira memory poisoning. Memória bem usada transforma o agente em colaborador contínuo em vez de assistente amnésico.

Conceitos-chave:

Memória é primeira classe na v2; você revisa e edita; índice semântico; distinção entre memória e histórico de sessão.

O que é:

Panorama dos domínios que o DeerFlow cobre bem com skills prontas: deep research, relatórios, code review, newsletters, PPTs, podcasts, análise de dados.

Por que aprender:

Entender o leque de casos evita reinventar. Em muitas situações existe skill pronta que resolve 80% do problema.

Conceitos-chave:

Catálogo maduro cobre mídia, análise, engenharia e pesquisa; combinação de skills é o padrão; saber quando não usar também importa.

Ver Completo
1.2~40 min · Prático

🚀 Instalação e primeiro "olá mundo"

Do clone ao primeiro prompt rodando no navegador, passando por config, providers e Docker.

O que é:

Dois caminhos de configuração: make setup é um wizard interativo; make config deixa você editar os arquivos na mão.

Por que aprender:

O wizard economiza tempo na primeira vez, mas esconde onde as coisas moram. Entender os dois evita ficar dependente do caminho fácil.

Conceitos-chave:

Setup = amigável; config = explícito; ambos geram os mesmos arquivos finais; você pode começar num e terminar no outro.

O que é:

config.yaml guarda decisões estruturais (providers, sandbox, skills). .env guarda segredos (API keys, tokens). Nunca misture os dois.

Por que aprender:

Errar a divisão é o atalho mais rápido para vazar chave em git. E torna a config não-reproduzível para outro ambiente.

Conceitos-chave:

config.yaml versionável; .env no .gitignore; substituição de variáveis no YAML; ordem de precedência entre os dois.

O que é:

Você liga o DeerFlow a um ou mais LLMs via provider: OpenAI, OpenRouter, Claude Code OAuth, Codex CLI, vLLM local, Doubao, DeepSeek, Kimi.

Por que aprender:

A escolha de provider muda custo, latência, qualidade e privacidade. Não há resposta universal — depende do seu caso de uso.

Conceitos-chave:

Multi-provider de primeira classe; cada skill pode fixar um modelo preferido; local roda via vLLM; CLI-backed para quem tem assinatura.

O que é:

Comando de diagnóstico que valida config, pinga providers, checa dependências do sandbox e reporta erros com sugestão de fix.

Por que aprender:

90% dos problemas de primeira instalação já têm detecção pronta no doctor. Rodar antes de pedir ajuda é educação mínima.

Conceitos-chave:

Rode após qualquer mudança de config; saída machine-readable; parte do fluxo de CI recomendado.

O que é:

O DeerFlow tem alvos make para Docker: make docker-init e make docker-start, que isolam o sandbox e o frontend.

Por que aprender:

Docker é o default que equilibra conveniência e segurança. Evita poluir o host e é fácil de resetar quando quebra.

Conceitos-chave:

Imagem base estável; volumes para memória e skills; reset com docker-clean; não é ainda produção multi-tenant.

O que você vai fazer:

Subir via Docker, abrir o frontend e rodar uma pergunta real — sem ser "diga oi", mas algo que exercite uma skill.

Por que esse lab:

Sair do "hello world" na primeira execução força você a ver o loop plan → execute → resultado sem achar que é mágica.

Passos-chave:

docker-init; docker-start; abrir localhost; prompt de pesquisa curta; inspecionar traces; comparar resposta com/sem skill.

Ver Completo
1.3~35 min · Prático

🖥️ A interface e o loop básico

Frontend Next.js, anatomia de uma conversa e os dois modos que mais mudam o resultado: plan e thinking.

O que é:

Uma UI web em Next.js que conversa com o backend, mostra traces, permite upload de arquivos e configura por sessão.

Por que aprender:

Achar rápido onde mora plan, thinking, memória e traces elimina metade das dúvidas operacionais.

Conceitos-chave:

Layout em painéis; painel de traces; botões de modo; histórico persistente por sessão.

O que é:

O ciclo canônico: prompt do usuário → o lead_agent planeja → executa passos via skills/tools → devolve o resultado final.

Por que aprender:

Entender o ciclo te dá intuição para saber onde intervir: refinar prompt, forçar skill, revisar plano, ou aceitar.

Conceitos-chave:

Lead agent; planejamento opcional; execução em streaming; resultado auditável via trace.

O que é:

Um modo em que o agente propõe um plano escrito antes de executar, e você aprova, edita ou rejeita.

Por que aprender:

Plan mode é o principal controle para tarefas caras ou irreversíveis. Também é a melhor ferramenta didática — te mostra como o agente está pensando.

Conceitos-chave:

Opcional por turno; edita o plano inline; útil para research e ações com efeito colateral; aumenta latência.

O que é:

Modo que libera o modelo para raciocinar antes de responder. Mais tempo, mais tokens, respostas geralmente melhores em tarefas complexas.

Por que aprender:

Ligar thinking em perguntas simples é desperdício; desligar em problemas duros é ilusão de velocidade com resultado pior.

Conceitos-chave:

Não é retry; custa tokens extras; ótimo para debug, matemática, análise; inútil para fato direto.

O que é:

A resposta chega em chunks, permitindo que você comece a ler e interrompa se estiver indo por um caminho errado.

Por que aprender:

Interromper cedo economiza tempo e tokens em 30-40% das tarefas longas — se você souber reconhecer que está errado.

Conceitos-chave:

Tokens em tempo real; botão de cancelar; trace também flui; não quebra auditoria.

O que você vai fazer:

Rodar a mesma pergunta em 4 combinações (plan on/off × thinking on/off) e comparar tempo, custo e qualidade.

Por que esse lab:

Sentir na pele a diferença evita que você use os modos por reflexo — vai entender quando cada um vale a pena.

Passos-chave:

Escolher pergunta média; rodar 4 variantes; anotar tempo e tokens; classificar qualidade subjetiva; escrever a regra pessoal.

Ver Completo
1.4~45 min · Prático

🎯 Skills — a capacidade principal

Catálogo público, como invocar manualmente e como o agente decide sozinho qual usar.

O que é:

Uma skill combina descrição (trigger), instruções e (opcional) tools próprias. É a menor unidade que o agente reconhece como "capacidade plugável".

Por que aprender:

Quase tudo que você vai estender no DeerFlow tem formato de skill. Entender o contrato é obrigatório.

Conceitos-chave:

Descrição clara = trigger accuracy; escopo limitado; composição com outras skills; versionamento.

O que é:

Famílias de skills prontas: deep-research, github-deep-research, systematic-literature-review, data-analysis, chart-visualization, academic-paper-review.

Por que aprender:

Muita demanda de "pesquisa" tem skill específica. Usar a skill certa muda qualidade drasticamente.

Conceitos-chave:

deep-research ≠ SLR; análise de dados aciona visualização automaticamente; revisão acadêmica tem formato próprio de saída.

O que é:

ppt-generation, podcast-generation, newsletter-generation, video-generation, image-generation. Skills que entregam artefato final, não só texto.

Por que aprender:

Quase tudo que vira slide, áudio ou vídeo no fluxo de trabalho corporativo tem skill cobrindo. Economiza muita fricção.

Conceitos-chave:

Saídas são arquivos reais; formatos configuráveis; qualidade depende do modelo escolhido; bom complemento de research.

O que é:

frontend-design, vercel-deploy-claimable, code-documentation, consulting-analysis, surprise-me. Skills de engenharia e apoio ao negócio.

Por que aprender:

São as que mostram o DeerFlow saindo do script "só research" e cobrindo fluxos reais de entrega.

Conceitos-chave:

vercel-deploy-claimable entrega URL; consulting-analysis tem formato específico de relatório; surprise-me é meta (escolhe por você).

O que é:

O lead_agent lê a descrição de cada skill e decide qual (ou nenhuma) se aplica ao prompt atual. A qualidade da escolha depende da descrição.

Por que aprender:

Explica por que skill quase certa não é acionada — descrição pouco específica. Também por que forçar à mão às vezes compensa.

Conceitos-chave:

Descrição é o contrato; ambiguidade derruba accuracy; forçar invocação é válido; combinação de skills é natural.

O que é:

Sintaxe de invocação explícita que diz ao lead_agent: "use skill X neste prompt", ignorando a heurística automática.

Por que aprender:

Útil para testes, comparativos e quando você sabe exatamente o que quer. Também derruba frustração com auto-seleção.

Conceitos-chave:

Invocação explícita não bloqueia composição; agente ainda pode chamar outras skills; o resultado fica no mesmo trace.

O que você vai fazer:

Rodar o mesmo tema em deep-research e em systematic-literature-review e comparar as saídas.

Por que esse lab:

As duas skills parecem iguais de fora. Só comparando dá para entender onde uma é melhor que a outra — e quando nenhuma serve.

Passos-chave:

Escolher tema com literatura publicada; rodar as duas; comparar estrutura da saída, citações, profundidade; escrever a heurística de escolha.

Ver Completo
1.5~40 min · Prático

🔎 Web search, arquivos e sandbox

Providers de search, upload de arquivos e os três modos de sandbox — o que muda e quando escolher cada um.

O que é:

Providers que alimentam as skills de pesquisa com resultados estruturados da web. Tavily e InfoQuest são os suportados por padrão.

Por que aprender:

Provider errado = resultados ruins mesmo com skill certa. E cada um tem trade-offs de custo, qualidade e freshness.

Conceitos-chave:

Tavily = rápido e barato; InfoQuest = curadoria; troca via config; quota importa em uso pesado.

O que é:

Mecanismo para colocar arquivos no sandbox para que skills os leiam. Suporta texto, binário, planilhas, PDFs.

Por que aprender:

É o atalho para análise de dados sem configuração de ingestão. Entender o ciclo de vida do arquivo evita vazamento entre sessões.

Conceitos-chave:

Arquivo vive no sandbox; é limpo entre sessões; tamanho limitado; pode ser referenciado por nome no prompt.

O que é:

O sandbox roda direto no host, sem isolamento. Zero overhead, zero proteção. Útil só em máquina de desenvolvimento dedicada.

Por que aprender:

É o modo mais comum para "quero testar rápido" — e o que mais gera acidentes. Saber quando não usar é metade do aprendizado.

Conceitos-chave:

Sem isolamento; rápido; compartilha home do usuário; jamais use em produção.

O que é:

Cada execução em um container isolado com imagem controlada. Resolve 90% dos problemas de Local sem complexidade operacional.

Por que aprender:

É o default recomendado para uso pessoal e equipes pequenas. Entender a imagem base e os volumes economiza horas.

Conceitos-chave:

Container por execução; imagem customizável; volumes para persistir; supera Local em quase tudo.

O que é:

Cada sessão vira um Pod com quotas de CPU/RAM/tempo, isolamento de rede e limpeza automática. Nível empresa.

Por que aprender:

Quando você hospeda o DeerFlow para um time, Docker não escala. K8s é o único caminho sensato para multi-tenant.

Conceitos-chave:

Provisioner customizável; network policies; image pull secrets; integra com observability do cluster.

O que você vai fazer:

Subir um CSV real e pedir análise com geração de gráficos — combinando data-analysis e chart-visualization.

Por que esse lab:

Mostra upload, sandbox e composição automática de skills em uma só tarefa. É o exemplo mais honesto do que o DeerFlow faz bem.

Passos-chave:

CSV de amostra; prompt de análise; inspecionar artefatos gerados; conferir que gráficos foram salvos no sandbox; baixar resultado.

Ver Completo
1.6~35 min · Prático

🧠 Memória de longo prazo

O que o DeerFlow lembra entre sessões, como revisar, e quando a memória ajuda ou atrapalha.

O que é:

Fatos sobre você, o projeto, preferências e referências externas. O histórico da conversa não é memória — é contexto temporário.

Por que aprender:

A distinção entre memória e histórico é a mais importante e a menos ensinada. Confundir as duas gera expectativas erradas.

Conceitos-chave:

Memória sobrevive a sessões; histórico vive só na conversa; critério de salvamento é explícito; você pode forçar.

O que é:

Quatro categorias: perfil do usuário, feedback de como trabalhar, fatos do projeto, e ponteiros para sistemas externos.

Por que aprender:

Sem categoria, tudo vira "fato" e a memória polui rápido. As categorias dão controle para revisar e limpar.

Conceitos-chave:

Cada tipo tem critério próprio; revisão por categoria; decaimento diferente para cada.

O que é:

A UI expõe a memória como itens editáveis. Você lê, corrige, remove ou arquiva. É um diário, não uma caixa-preta.

Por que aprender:

Revisar regularmente é a diferença entre memória útil e memória envenenada.

Conceitos-chave:

Edição inline; delete com confirmação; export para backup; merge quando há duplicata.

O que é:

Nem toda tarefa ganha com memória. Pesquisas continuadas ganham; exploração aberta perde; tarefa crítica exige memória limpa.

Por que aprender:

Saber quando desligar a memória evita que fatos velhos contaminem decisões novas.

Conceitos-chave:

On/off por sessão; memória por projeto; poisoning é real; viés de confirmação via memória antiga.

O que você vai fazer:

Criar um projeto de pesquisa contínua em três sessões separadas, verificando o que é carregado automaticamente em cada retorno.

Por que esse lab:

Só a continuidade revela o que a memória faz bem e o que ela esquece ou inventa.

Passos-chave:

Sessão 1: contexto inicial; sessão 2: retomar e validar; sessão 3: contradição intencional e conferir o que foi sobrescrito.

Ver Completo
1.7~40 min · Prático

📲 Integrações de bolso

Telegram, Slack, Feishu/WeChat/WeCom para falar com o agente fora do navegador — e LangSmith/Langfuse para ver o que ele fez.

O que é:

Canal de entrada oficial que liga um bot do Telegram ao lead_agent, preservando sessão e memória por usuário.

Por que aprender:

É a integração mais rápida para "usar o DeerFlow no celular" sem subir frontend. Bom para demo e uso pessoal.

Conceitos-chave:

BotFather para criar; token em .env; sessão por chat; arquivos suportados nativamente.

O que é:

App do Slack que roteia mensagens de canais ou DMs para o DeerFlow e responde com threads e artefatos anexados.

Por que aprender:

É onde a maioria dos times corporativos já trabalha. Plugar bem é a diferença entre "interessante" e "adotado".

Conceitos-chave:

Slack App com scopes; socket mode ou HTTP; sessão por thread; custom agents por canal.

O que é:

Canais IM adicionais suportados nativamente. Essenciais se você trabalha em um time com presença na China ou no ecossistema ByteDance.

Por que aprender:

Mesmo fora dessas empresas, ler como o DeerFlow suporta esses canais é um ótimo estudo de caso de plugabilidade.

Conceitos-chave:

Abstração comum de canal IM; mesma API interna; webhook + callback; custom agents também se aplicam.

O que é:

Integração nativa que envia cada execução como trace hierárquico para o LangSmith, incluindo tool calls e tokens.

Por que aprender:

Sem tracing, debug vira adivinhação. LangSmith é o caminho mais rápido para visualizar o que o agente está fazendo.

Conceitos-chave:

Traces com árvore de chamadas; custo por execução; filtros por skill; datasets para avaliação.

O que é:

Alternativa open-source e self-hosted ao LangSmith, com o mesmo conceito de trace hierárquico e o mesmo ponto de integração.

Por que aprender:

Se você não pode mandar dados para um SaaS, Langfuse é o caminho. E o DeerFlow trata os dois como intercambiáveis.

Conceitos-chave:

Self-host em minutos; API compatível; dashboards customizáveis; ótimo para compliance.

O que você vai fazer:

Plugar um bot do Telegram ao DeerFlow, ativar LangSmith e conversar pelo celular enquanto observa traces no laptop.

Por que esse lab:

Une duas peças que parecem separadas — IM e observabilidade — e mostra que a mesma execução é auditável em qualquer canal.

Passos-chave:

BotFather + token; habilitar Telegram no config; ativar LangSmith; enviar 3 prompts; conferir traces em tempo real.

Ver Completo
← Voltar ao Início Próxima Trilha: Avançado I →