MÓDULO 1.4

🎯 Skills — a capacidade principal

Skills são a unidade de extensão do DeerFlow. Neste módulo, você conhece o catálogo público dividido em famílias, entende como o lead_agent escolhe sozinho e aprende a forçar a escolha quando precisa.

7
Tópicos
45
Minutos
Básico
Nível
Prático
Tipo

💡 Como ler este módulo

As quatro seções de catálogo (tópicos 2-5) são densas de propósito. Não tente decorar. Use como mapa — leia rápido, volte quando uma tarefa nova aparecer. O que importa é ter visto os nomes uma vez para reconhecê-los depois.

1

🧬 O que é uma skill

Uma skill tem três partes e nada mais: uma descrição que diz ao lead_agent quando ela se aplica, um bloco de instruções que diz como executar, e um conjunto opcional de tools próprias. É o contrato mais simples possível. Toda a riqueza do DeerFlow — deep-research, ppt-generation, data-analysis — é composta a partir desse molde.

🎯 Anatomia mínima

  • Descrição— 2-5 frases que respondem "quando devo usar esta skill?". É o contrato de trigger com o lead_agent.
  • Instruções— prompt estruturado que guia a execução. Pode incluir templates, formato de saída, guardrails.
  • Tools— funções específicas que só esta skill usa. Pode estar vazio se a skill se apoia apenas nas tools globais.
  • Arquivo— tudo vive em texto (Markdown + YAML). Versionável, diff-ável, revisável.

💡 A descrição é o contrato

Se a descrição está vaga ou genérica demais, o lead_agent nunca vai acionar a skill — não importa quão bom seja o bloco de instruções. Skill que não é triggerada é skill inexistente. Antes de culpar o agente, releia a descrição com olho de fora.

2

🔬 Catálogo: research e análise

A família mais forte do DeerFlow. É onde a herança da v1 ainda se vê — mas agora tratada como um conjunto de skills independentes, cada uma com um caso de uso próprio.

1

deep-research

Pesquisa ampla com síntese multi-fonte

A skill mais pedida. Varre web, agrega, compara, cita. Saída textual estruturada com fontes numeradas. Default quando o prompt começa com "pesquise", "compare", "o que é".

2

github-deep-research

Research específica para código e repositórios

Usa a API do GitHub para achar repos, comparar atividade, ler READMEs, cross-referenciar issues. Melhor que deep-research para "qual biblioteca Python resolve X".

3

systematic-literature-review (SLR)

Revisão bibliográfica sistemática

Protocolos mais rigorosos que deep-research: critérios de inclusão/exclusão, tabela de artigos lidos, análise de qualidade. Formato de saída segue convenções acadêmicas.

4

data-analysis

Análise exploratória de dados estruturados

Lê CSV/Excel/Parquet do sandbox, gera estatísticas, identifica padrões, sugere próximos passos. Dispara chart-visualization automaticamente quando faz sentido.

5

academic-paper-review

Revisão crítica de um paper específico

Lê o PDF, extrai contribuição, método, resultados, limitações. Saída em formato de peer review: pontos fortes, pontos fracos, perguntas em aberto.

3

🎞️ Catálogo: mídia e conteúdo

As skills que entregam artefato, não só texto. É onde o DeerFlow sai do "chat" e vira gerador de output consumível por terceiros.

🎯 As cinco principais

  • ppt-generation— gera arquivo .pptx de verdade, com slides, layout, cores. Aceita briefing estruturado ou livre.
  • podcast-generation— script + síntese de voz + mixagem. Saída é .mp3. Bom para digest semanal de um tema.
  • newsletter-generation— artigo estilo email/Substack, com seções, destaques, call-to-action. Saída em Markdown.
  • video-generation— script + frames + voiceover + mux. Saída .mp4. Qualidade depende muito do modelo.
  • image-generation— imagens via DALL-E, Midjourney-like ou Flux dependendo do provider configurado. .png ou .webp.

💡 Composição research → mídia

Um dos padrões mais produtivos: acione deep-research, depois ppt-generation com "use o resultado anterior". O lead_agent passa o texto como briefing sem você precisar copiar e colar. Research vira slide em 1 turno.

4

💼 Catálogo: engenharia e negócio

A família que mostra o DeerFlow saindo do script "só research". Não é o caso de uso mais forte dele — Claude Code e IDE-agents são melhores em refatoração pesada — mas cobre fluxos reais de entrega que um único chat nunca cobre.

1

frontend-design

Geração de UI completa

Cria componentes ou páginas inteiras em React/Next/Tailwind com qualidade visual acima da média. Não é refatoração — é prototipagem de alta fidelidade a partir de briefing.

2

vercel-deploy-claimable

Deploy descartável → URL pronta

Faz deploy do resultado de frontend-design em uma URL pública da Vercel e devolve o link. A URL é claimable: quem recebe pode absorver para a própria conta se quiser.

3

code-documentation

Docstrings, READMEs, tutoriais

Lê o repo no sandbox, gera documentação estruturada, respeitando convenções (Google docstrings, reStructuredText, JSDoc). Bom para projetos herdados.

4

consulting-analysis

Relatórios em formato McKinsey-ish

Executive summary, situação, complicação, análise, recomendações. Útil quando você quer a estrutura antes do conteúdo — em vez de texto corrido sobre um problema.

5

surprise-me

Meta-skill que escolhe por você

Recebe um contexto frouxo e decide qual skill combinar. Útil para demos e para quando você nem sabe exatamente o que quer. Não use em produção — é deliberadamente experimental.

5

🧭 Como o agente escolhe skill

O lead_agent recebe, junto do prompt do usuário, a lista de descrições de todas as skills ativas. Ele decide, num único passo de planejamento, qual (ou quais) se aplicam. Não há embedding, não há busca vetorial — é decisão direta do modelo lendo as descrições. Isso tem uma consequência forte: descrição ambígua derruba a trigger accuracy imediatamente.

✓ Descrição que acerta

  • Começa com verbo ativo ("Gera um PPT...", "Analisa dados tabulares...")
  • Diz a entrada esperada e a saída produzida
  • Lista exemplos de prompts de trigger
  • Diferencia-se explicitamente de skills próximas

✗ Descrição que falha

  • Genérica ("ajuda com análise")
  • Só lista as tools internas sem dizer o propósito
  • Assume conhecimento prévio do lead_agent
  • Sobrepõe outra skill sem deixar claro o recorte

📊 Sinais de baixa trigger accuracy

  • Skill ignorada em prompts que claramente se encaixam — descrição não bate
  • Skill errada acionada consistentemente — overlap com vizinha, ambas sem recorte
  • Duas skills juntas onde uma bastaria — descrições que se complementam em vez de escolherem
  • Nenhuma skill acionada — agente responde direto sem trigger. Geralmente é o fim do mundo da descrição.
6

✍️ Invocar skill manualmente

Quando você sabe exatamente qual skill quer, force a escolha. A invocação manual é uma sintaxe explícita — no prompt (/skill deep-research) ou via seletor da UI — que diz ao lead_agent: "use esta, ponto". É útil para testes, comparativos, reprodução de resultados e quando a heurística automática está errando.

🎯 O que a invocação manual garante (e o que não garante)

  • Garante — que a skill X vai ser acionada
  • Garante — que fica registrada no trace como chamada explícita
  • Não garante — que o agente vai usar ela (composição ainda é natural)
  • Não garante — que o resultado vai ser melhor do que a escolha automática

💡 Dica prática

Use invocação manual para comparativos A/B. Rodar a mesma pergunta com /skill A e /skill B é o jeito mais rápido de sentir a diferença entre duas skills vizinhas. É também como você treina a intuição para quando desligar a automática e forçar.

7

🧪 Lab: deep-research vs. SLR

deep-research e systematic-literature-review parecem a mesma coisa vistas de fora. São duas das skills mais próximas do catálogo. A única forma honesta de aprender a diferença é rodar as duas na mesma pergunta e comparar o shape da saída.

🎯 O que você vai fazer

Escolher um tema com literatura publicada, rodar as duas skills via invocação manual, e escrever sua heurística pessoal de escolha entre elas.

📊 Por que esse lab

As descrições das duas são próximas. O lead_agent dificilmente erra a escolha, mas você vai errar sua própria escolha quando for instruir a equipe. O lab te dá a bagagem para decidir sozinho em vez de jogar moedinha.

1

Escolha o tema

Procure algo com literatura acadêmica real. Exemplo: "métodos de avaliação de hallucination em LLMs multimodais", "impacto de knowledge distillation em inference cost", "técnicas de RAG híbrido com reranking".

2

Rode deep-research

Em uma sessão nova, /skill deep-research + o tema. Deixe rodar inteiro. Salve a saída e anote tempo + tokens.

3

Rode SLR

Outra sessão nova, /skill systematic-literature-review + o mesmo tema. Deixe rodar inteiro. Salve a saída.

4

Compare

Foque em quatro dimensões: estrutura da saída, quantidade e qualidade de citações, profundidade de análise por fonte, e quão específico é o recorte. Anote um por um.

5

Escreva a heurística

"Eu uso deep-research quando X. Eu uso SLR quando Y. Eu uso as duas quando Z." Essa frase vale mais que qualquer documentação — é sua ferramenta de decisão daqui pra frente.

📝 Resumo do Módulo

Skill = descrição + instruções + tools — arquivo de texto, versionável. Descrição é o contrato de trigger com o lead_agent.
Catálogo research/análise — deep-research, github-deep-research, SLR, data-analysis, academic-paper-review. A família mais madura do DeerFlow.
Catálogo mídia — PPT, podcast, newsletter, vídeo, imagem. Entregam artefato final, não só texto. Compõem com research em um único turno.
Catálogo engenharia/negócio — frontend-design, vercel-deploy-claimable, code-documentation, consulting-analysis, surprise-me.
Trigger accuracy é ditada pela descrição — descrição vaga = skill inexistente. Verbo ativo + entrada + saída + exemplo + diferencial.
Invocação manual para comparativos — força a skill, não garante resultado melhor, mas é o caminho para construir intuição.

Próximo Módulo:

1.5 — 🔎 Web search, arquivos e sandbox

Providers de search, upload de arquivos e os três modos de sandbox — o que muda e quando escolher cada um.