💡 Este é o último módulo
Os dois primeiros labs (4.3) mediram os eixos em que cada plataforma tem centro de gravidade. Os dois últimos (este módulo) exploram fronteiras e tetos: fluxo ponta a ponta multi-skill e criação de capacidade nova. No final, o aluno redige o guia de escolha pessoal — entregável que encerra a Trilha 4 e o curso inteiro.
🧬 Lab 3: Tarefa híbrida (CSV → PPT → Slack)
Tarefa de ponta a ponta: analisar um CSV de vendas, gerar um PPT com as conclusões e postar um resumo num canal Slack. São três skills diferentes encadeadas num fluxo só — o tipo de tarefa em que DeerFlow ganha naturalmente, porque multi-skill + multi-channel está no posicionamento dele.
Setup: CSV comum + canal Slack
Insumos idênticos nas 3 plataformas
Um CSV de vendas com ~5k linhas, colunas típicas (data, produto, região, valor). Um canal Slack de teste onde cada plataforma pode postar. Permissões prontas antes do cronômetro começar.
Prompt único
Sem decompor manualmente
"Analise este CSV, identifique as 3 conclusões mais importantes, gere um PPT de 5 slides com elas e poste um resumo de 4 bullets no canal #lab-trilha4." Não explique como fazer — é parte do teste se a plataforma decompõe sozinha.
Execução
Cronômetro do prompt ao post no Slack
Em DeerFlow: data-analysis + ppt-generation + canal Slack configurado (Trilha 1, módulo 1.6). Em Claude Code e Antigravity: observe como (e se) cada um lida com os três passos.
Entregável: 3 PPTs + 3 posts
Rubrica de 4 dimensões outra vez
Ao final, você tem três .pptx e três mensagens no Slack. Pode abrir os três PPTs lado a lado. É uma das comparações mais visuais do curso — o output fala por si.
🧰 Lab 4: Tarefa de extensibilidade
O teste que separa "plataforma confortável" de "plataforma que você consegue dobrar". A mesma capacidade nova implementada como skill/tool em cada uma das três: uma integração simples com uma API interna (ou API pública qualquer) que retorna dados e o agente consegue usar no loop.
Capacidade escolhida
Pequena, específica, útil
Exemplo: "dada uma sigla de cidade brasileira, retornar indicadores do IBGE/portal de dados abertos." Simples o bastante para caber em 1h, útil o bastante para não ser brinquedo.
Em Claude Code
Skill + MCP server
Use o padrão oficial: criar a skill com descrição + instruções, ou expor a API como MCP server. Anote quantos arquivos, quantas linhas, quanto tempo até o primeiro uso bem-sucedido.
Em Antigravity
Extensão ou caminho oficial vigente em 2026
Siga a documentação oficial do Antigravity para extensões. Se não há caminho pronto, anote explicitamente "sem caminho oficial" — ausência é um dado, não um problema do lab.
Em DeerFlow
Skill própria ou tool dentro de skill existente
Use a meta-skill skill-creator (Trilha 2, módulo 2.3) ou escreva manualmente. Teste a trigger accuracy com 5 prompts diferentes: a skill foi acionada nas 5? Anote.
💡 O que medir
Linhas de código necessárias, número de arquivos tocados, tempo até o primeiro uso bem-sucedido, reversibilidade (fácil remover?), trigger accuracy em prompts variados. É uma comparação em que DeerFlow costuma ir bem por ser open-source e ter padrão de skill próprio — mas não antecipe conclusão: deixe a rubrica falar.
⚖️ Quando DeerFlow ganha naturalmente — e quando empata
Um curso honesto precisa dizer onde a própria ferramenta não é a mais forte. É o que faz o aluno confiar na recomendação quando ela chega. Abaixo o recorte que sai naturalmente dos 4 labs — válido para 2026 e que você deve reavaliar em 3 meses.
✓ DeerFlow é forte quando…
- ✓A tarefa não cabe dentro do editor
- ✓Há três ou mais skills encadeadas
- ✓O entregável precisa sair num canal IM
- ✓Research profundo com fontes citadas
- ✓Geração de mídia (PPT, podcast, video)
- ✓Projeto longo com long-term memory
- ✓Dados precisam ficar na sua infra
✗ DeerFlow empata ou perde quando…
- ✗Edit-loop rápido dentro do editor
- ✗Refatorações interativas visuais
- ✗UX integrada com git e diff inline
- ✗Dev só quer "uma resposta rápida em código"
- ✗Não há recursos pra hospedar infra
- ✗Equipe pequena sem ninguém de Python
- ✗Prazo de 1 hora para produzir resultado
📊 Dados agregados esperados (referência)
- Lab 1 (código): Claude Code e Antigravity costumam vencer em tempo; DeerFlow empata em qualidade com mais fricção
- Lab 2 (research): DeerFlow costuma vencer em profundidade e quantidade de fontes verificáveis
- Lab 3 (híbrido): DeerFlow vence em volume de entregáveis; IDE-agents vencem em qualidade pontual de cada peça
- Lab 4 (extensibilidade): Claude Code com MCP e DeerFlow ficam próximos; Antigravity varia muito conforme maturidade do catálogo
- Importante: "vence" aqui é medido na rubrica — não é opinião nem marketing
🗺️ Redigir a recomendação final por tipo de tarefa
A recomendação final não é "use X". É uma tabela de decisão em que cada linha é um tipo de tarefa e a coluna aponta a plataforma recomendada + justificativa em uma frase. Tabela é a forma mais defensável: cada linha pode ser contestada separadamente sem reabrir o debate inteiro.
💡 Template da tabela
Colunas: Tipo de tarefa · Plataforma recomendada · Justificativa (1 frase) · Exceção. Exemplo de linhas:
- • Refatorar código em um repo → Claude Code → par de programação Anthropic com git-aware → exceto se precisar de multi-model
- • Relatório de research com fontes → DeerFlow → skill
deep-research+ multi-provider → exceto se o tema é extremamente de nicho - • Apresentação a partir de CSV → DeerFlow →
data-analysis+ppt-generationencadeados → sem exceção clara - • Exploração rápida de código legado → IDE-agent → UX visual com diff inline → depende do editor preferido
- • Integração com canal IM interno → DeerFlow → único dos três com IM nativo → sem exceção
🎯 Regras da tabela
- •Cada linha tem data de validade — "válido em abril/2026, revisar em julho"
- •Justificativa em 1 frase — se não cabe, o tipo de tarefa está mal definido
- •Exceções declaradas — "exceto se..." é o que protege a tabela de ficar datada
- •Plano de reavaliação — uma data no calendário para refazer os 4 labs
🎓 Entregável: guia de escolha pessoal
O último entregável do curso inteiro é um documento curto, de uso próprio, em que o aluno registra — nas palavras dele — para quais tarefas vai usar cada uma das três plataformas no dia a dia depois do curso. É o que prova que o objetivo da Trilha 4 foi atingido: escolher a ferramenta certa por tipo de tarefa, não por moda.
🎯 Conceito Central do entregável
O guia não é um artigo de blog. É um memorando para você mesmo, com três seções curtas:
- 1.Minhas tarefas típicas — lista honesta do que você realmente faz
- 2.Tabela de decisão — do tópico 4, mas filtrada para suas tarefas
- 3.Compromissos — "vou reavaliar em 90 dias", "vou testar Antigravity de novo quando ela tiver MCP", etc.
💡 Por que "pessoal"
Porque a rubrica é minha, as tarefas são minhas, o contexto do meu time é meu. Uma recomendação genérica ("use X para tudo") não sobrevive à próxima semana. Uma recomendação que parte do meu trabalho real sobrevive — e é revisável quando o trabalho mudar.
📊 Critérios de pronto do guia
- Cabe em 1 página (não é relatório executivo)
- Toda linha da tabela aponta a plataforma e a justificativa em 1 frase
- Há pelo menos 1 exceção declarada por plataforma
- Há uma data futura de reavaliação escrita explicitamente
- Não contém a palavra "melhor" — só "forte em…" e "fraco em…"
🎓 Fim do curso · Obrigado
Depois do curso
Revisite o guia de escolha pessoal a cada 90 dias. Refaça os 4 labs quando uma nova versão de qualquer plataforma sair. Contribua upstream (Trilha 2, módulo 2.10) — o DeerFlow cresce melhor com quem já entendeu o harness inteiro.
Obrigado por chegar até aqui. Boa prática.