💡 Como ler este módulo
As quatro seções de catálogo (tópicos 2-5) são densas de propósito. Não tente decorar. Use como mapa — leia rápido, volte quando uma tarefa nova aparecer. O que importa é ter visto os nomes uma vez para reconhecê-los depois.
🧬 O que é uma skill
Uma skill tem três partes e nada mais: uma descrição que diz ao lead_agent quando ela se aplica, um bloco de instruções que diz como executar, e um conjunto opcional de tools próprias. É o contrato mais simples possível. Toda a riqueza do DeerFlow — deep-research, ppt-generation, data-analysis — é composta a partir desse molde.
🎯 Anatomia mínima
- Descrição— 2-5 frases que respondem "quando devo usar esta skill?". É o contrato de trigger com o lead_agent.
- Instruções— prompt estruturado que guia a execução. Pode incluir templates, formato de saída, guardrails.
- Tools— funções específicas que só esta skill usa. Pode estar vazio se a skill se apoia apenas nas tools globais.
- Arquivo— tudo vive em texto (Markdown + YAML). Versionável, diff-ável, revisável.
💡 A descrição é o contrato
Se a descrição está vaga ou genérica demais, o lead_agent nunca vai acionar a skill — não importa quão bom seja o bloco de instruções. Skill que não é triggerada é skill inexistente. Antes de culpar o agente, releia a descrição com olho de fora.
🔬 Catálogo: research e análise
A família mais forte do DeerFlow. É onde a herança da v1 ainda se vê — mas agora tratada como um conjunto de skills independentes, cada uma com um caso de uso próprio.
deep-research
Pesquisa ampla com síntese multi-fonte
A skill mais pedida. Varre web, agrega, compara, cita. Saída textual estruturada com fontes numeradas. Default quando o prompt começa com "pesquise", "compare", "o que é".
github-deep-research
Research específica para código e repositórios
Usa a API do GitHub para achar repos, comparar atividade, ler READMEs, cross-referenciar issues. Melhor que deep-research para "qual biblioteca Python resolve X".
systematic-literature-review (SLR)
Revisão bibliográfica sistemática
Protocolos mais rigorosos que deep-research: critérios de inclusão/exclusão, tabela de artigos lidos, análise de qualidade. Formato de saída segue convenções acadêmicas.
data-analysis
Análise exploratória de dados estruturados
Lê CSV/Excel/Parquet do sandbox, gera estatísticas, identifica padrões, sugere próximos passos. Dispara chart-visualization automaticamente quando faz sentido.
academic-paper-review
Revisão crítica de um paper específico
Lê o PDF, extrai contribuição, método, resultados, limitações. Saída em formato de peer review: pontos fortes, pontos fracos, perguntas em aberto.
🎞️ Catálogo: mídia e conteúdo
As skills que entregam artefato, não só texto. É onde o DeerFlow sai do "chat" e vira gerador de output consumível por terceiros.
🎯 As cinco principais
- ppt-generation— gera arquivo .pptx de verdade, com slides, layout, cores. Aceita briefing estruturado ou livre.
- podcast-generation— script + síntese de voz + mixagem. Saída é .mp3. Bom para digest semanal de um tema.
- newsletter-generation— artigo estilo email/Substack, com seções, destaques, call-to-action. Saída em Markdown.
- video-generation— script + frames + voiceover + mux. Saída .mp4. Qualidade depende muito do modelo.
- image-generation— imagens via DALL-E, Midjourney-like ou Flux dependendo do provider configurado. .png ou .webp.
💡 Composição research → mídia
Um dos padrões mais produtivos: acione deep-research, depois ppt-generation com "use o resultado anterior". O lead_agent passa o texto como briefing sem você precisar copiar e colar. Research vira slide em 1 turno.
💼 Catálogo: engenharia e negócio
A família que mostra o DeerFlow saindo do script "só research". Não é o caso de uso mais forte dele — Claude Code e IDE-agents são melhores em refatoração pesada — mas cobre fluxos reais de entrega que um único chat nunca cobre.
frontend-design
Geração de UI completa
Cria componentes ou páginas inteiras em React/Next/Tailwind com qualidade visual acima da média. Não é refatoração — é prototipagem de alta fidelidade a partir de briefing.
vercel-deploy-claimable
Deploy descartável → URL pronta
Faz deploy do resultado de frontend-design em uma URL pública da Vercel e devolve o link. A URL é claimable: quem recebe pode absorver para a própria conta se quiser.
code-documentation
Docstrings, READMEs, tutoriais
Lê o repo no sandbox, gera documentação estruturada, respeitando convenções (Google docstrings, reStructuredText, JSDoc). Bom para projetos herdados.
consulting-analysis
Relatórios em formato McKinsey-ish
Executive summary, situação, complicação, análise, recomendações. Útil quando você quer a estrutura antes do conteúdo — em vez de texto corrido sobre um problema.
surprise-me
Meta-skill que escolhe por você
Recebe um contexto frouxo e decide qual skill combinar. Útil para demos e para quando você nem sabe exatamente o que quer. Não use em produção — é deliberadamente experimental.
🧭 Como o agente escolhe skill
O lead_agent recebe, junto do prompt do usuário, a lista de descrições de todas as skills ativas. Ele decide, num único passo de planejamento, qual (ou quais) se aplicam. Não há embedding, não há busca vetorial — é decisão direta do modelo lendo as descrições. Isso tem uma consequência forte: descrição ambígua derruba a trigger accuracy imediatamente.
✓ Descrição que acerta
- ✓Começa com verbo ativo ("Gera um PPT...", "Analisa dados tabulares...")
- ✓Diz a entrada esperada e a saída produzida
- ✓Lista exemplos de prompts de trigger
- ✓Diferencia-se explicitamente de skills próximas
✗ Descrição que falha
- ✗Genérica ("ajuda com análise")
- ✗Só lista as tools internas sem dizer o propósito
- ✗Assume conhecimento prévio do lead_agent
- ✗Sobrepõe outra skill sem deixar claro o recorte
📊 Sinais de baixa trigger accuracy
- Skill ignorada em prompts que claramente se encaixam — descrição não bate
- Skill errada acionada consistentemente — overlap com vizinha, ambas sem recorte
- Duas skills juntas onde uma bastaria — descrições que se complementam em vez de escolherem
- Nenhuma skill acionada — agente responde direto sem trigger. Geralmente é o fim do mundo da descrição.
✍️ Invocar skill manualmente
Quando você sabe exatamente qual skill quer, force a escolha. A invocação manual é uma sintaxe explícita — no prompt (/skill deep-research) ou via seletor da UI — que diz ao lead_agent: "use esta, ponto". É útil para testes, comparativos, reprodução de resultados e quando a heurística automática está errando.
🎯 O que a invocação manual garante (e o que não garante)
- •Garante — que a skill X vai ser acionada
- •Garante — que fica registrada no trace como chamada explícita
- •Não garante — que o agente só vai usar ela (composição ainda é natural)
- •Não garante — que o resultado vai ser melhor do que a escolha automática
💡 Dica prática
Use invocação manual para comparativos A/B. Rodar a mesma pergunta com /skill A e /skill B é o jeito mais rápido de sentir a diferença entre duas skills vizinhas. É também como você treina a intuição para quando desligar a automática e forçar.
🧪 Lab: deep-research vs. SLR
deep-research e systematic-literature-review parecem a mesma coisa vistas de fora. São duas das skills mais próximas do catálogo. A única forma honesta de aprender a diferença é rodar as duas na mesma pergunta e comparar o shape da saída.
🎯 O que você vai fazer
Escolher um tema com literatura publicada, rodar as duas skills via invocação manual, e escrever sua heurística pessoal de escolha entre elas.
📊 Por que esse lab
As descrições das duas são próximas. O lead_agent dificilmente erra a escolha, mas você vai errar sua própria escolha quando for instruir a equipe. O lab te dá a bagagem para decidir sozinho em vez de jogar moedinha.
Escolha o tema
Procure algo com literatura acadêmica real. Exemplo: "métodos de avaliação de hallucination em LLMs multimodais", "impacto de knowledge distillation em inference cost", "técnicas de RAG híbrido com reranking".
Rode deep-research
Em uma sessão nova, /skill deep-research + o tema. Deixe rodar inteiro. Salve a saída e anote tempo + tokens.
Rode SLR
Outra sessão nova, /skill systematic-literature-review + o mesmo tema. Deixe rodar inteiro. Salve a saída.
Compare
Foque em quatro dimensões: estrutura da saída, quantidade e qualidade de citações, profundidade de análise por fonte, e quão específico é o recorte. Anote um por um.
Escreva a heurística
"Eu uso deep-research quando X. Eu uso SLR quando Y. Eu uso as duas quando Z." Essa frase vale mais que qualquer documentação — é sua ferramenta de decisão daqui pra frente.
📝 Resumo do Módulo
Próximo Módulo:
1.5 — 🔎 Web search, arquivos e sandbox
Providers de search, upload de arquivos e os três modos de sandbox — o que muda e quando escolher cada um.