Navegação Rápida
📐 Framework de comparação (matriz de 10 eixos)
A ferramenta analítica: por que matriz fixa, os 10 eixos que valem para qualquer plataforma e lab preenchendo a matriz inteira para DeerFlow.
🎯 Posicionamento das 3 plataformas
Esqueleto honesto: Claude Code como par de programação, Antigravity como IDE de agentes, DeerFlow como harness hospedável. Lab "diga oi" nas 3.
🧪 Labs comparativos 1 e 2
Tarefa de código (refatorar módulo Python e abrir PR) e tarefa de research (relatório com 10 fontes citadas). Como comparar com honestidade.
🧭 Labs comparativos 3 e 4 + guia de escolha
Tarefa híbrida (CSV → PPT → Slack), extensibilidade (skill/tool nova em cada um) e redação do guia de escolha pessoal por tipo de tarefa.
Conteúdo Detalhado
Explore os tópicos de cada módulo sem sair desta página.
📐 Framework de comparação (matriz de 10 eixos)
Antes de comparar plataformas, é preciso fixar a régua. Este módulo estabelece os 10 eixos que valem para qualquer ferramenta agêntica — da categoria ao público-alvo — e termina preenchendo a matriz inteira para DeerFlow 2.0.
Uma matriz fixa de eixos é um conjunto pré-definido de perguntas que você faz para qualquer plataforma, antes de conhecê-la a fundo, para evitar comparações enviesadas ou motivadas por marketing.
Sem régua fixa, toda comparação vira torcida; com régua fixa, o aluno aprende a avaliar ferramentas futuras que ainda nem existem.
Critério fixo vs. ad-hoc; viés de novidade; empate honesto; comparabilidade longitudinal; decisão por tarefa e não por plataforma.
Classificar a plataforma na sua categoria estrutural: IDE-agent (roda dentro do editor), harness (orquestrador hospedável), framework (biblioteca para você construir) ou SaaS (produto fechado).
Categorias diferentes resolvem problemas diferentes — comparar um IDE-agent com um harness como "rivais" já é um erro de leitura.
IDE-agent; harness; framework; SaaS vertical; fronteiras borradas; confundir categoria com feature.
Pergunta crua: a plataforma roda na máquina do usuário, em servidores do fornecedor ou num híbrido com partes em cada lado? E quem tem acesso aos dados em cada caso?
Define se você pode usar a ferramenta com dados sensíveis, se depende de uptime de terceiros e qual é a superfície de ataque.
Local-first; cloud-first; self-hosted; data residency; offline capability; telemetria obrigatória.
Como a plataforma permite que você adicione capacidades novas: via skills, tools, extensions, plugins, MCP servers, ou "nenhuma, só use as features prontas".
O modelo de extensibilidade define o teto prático da plataforma — ferramenta fechada trava no primeiro caso de uso fora do catálogo.
Skills; tools; MCP; plugins; extension points; DX de extensão; catálogo público.
Onde e como a plataforma executa código gerado pelo agente: no host do usuário sem isolamento, em container Docker, em pod K8s ou em sandbox remoto do fornecedor.
A resposta define o perfil de risco, de velocidade e de portabilidade — é o eixo que mais separa "ferramenta pessoal" de "ferramenta de empresa".
Sandbox host; Docker; K8s; remote sandbox; isolamento de rede; persistência entre execuções.
Quanto a plataforma lembra entre interações: só o contexto atual, a sessão inteira, ou memória de longo prazo persistida entre sessões e projetos.
Memória de longo prazo muda a forma como você usa a ferramenta — deixa de repetir contexto e começa a acumular projeto.
Stateless; session memory; long-term memory; recall semântico; memory hygiene; auditoria de memória.
A plataforma suporta sub-agentes chamados por um lead agent? E se sim, eles são primeira classe (com SOUL e roteamento) ou só paralelismo de tools?
Tarefas reais em produção quase sempre quebram em sub-tarefas com papéis diferentes — sem sub-agentes você acaba fazendo rodízio manual.
Lead agent; sub-agent; custom agent; roteamento por agent_name; SOUL; paralelismo real.
Preencher os 10 eixos (os 6 acima mais modelos suportados, interface, open source e público-alvo) para o DeerFlow 2.0 usando o que já se sabe das Trilhas 1, 2 e 3 — criando o gabarito da matriz.
Só quando você preenche a matriz inteira com uma plataforma conhecida percebe os eixos fracos, os eixos redundantes e o ponto cego.
Preenchimento honesto; citar fonte do README/docs; colar link por eixo; células "depende"; gabarito para os próximos módulos.
🎯 Posicionamento das 3 plataformas
O "esqueleto honesto" do curso: Claude Code como par de programação, Antigravity como a IDE pensada em agentes e DeerFlow como o harness que você hospeda. Termina com um lab-relâmpago dizendo "oi" nas três plataformas para calibrar primeira impressão.
CLI/IDE-agent da Anthropic focado em engenharia de software, single-vendor em modelos, com skills + MCP e sandbox apoiado no host do desenvolvedor.
É o estado da arte de "par de programação" em 2026 e o benchmark honesto para tarefas de código dentro do curso.
CLI-first; IDE plugin; Anthropic-only; skills oficiais; MCP; sandbox do host; fluxo git-aware.
IDE-agent recente do Google focado em agentes autônomos dentro do próprio editor, com suporte multi-agente nativo e integração forte ao ecossistema Google/Gemini.
É a aposta mais nova em IDE agêntica, e comparar ao vivo é a forma honesta de evitar reagir a feature list de lançamento.
IDE agêntica; multi-agente nativo; Gemini; workspace Google; autonomia no editor; UX emergente.
Harness open-source multi-model e multi-channel (inclui IM), com skills para além de código (research, podcast, PPT, video), sandbox até K8s e memória de longo prazo como primeira classe.
É o único dos três que você hospeda, estende livremente e pluga em IM — entender o posicionamento evita usá-lo pelo motivo errado.
Harness genérico; skills para além de código; canais IM; self-host K8s; long-term memory; open-source.
Princípio didático do curso: em vez de listar features das 3 plataformas num slide, resolver a mesma tarefa ao vivo em cada uma para o aluno ver tempo, fricção e resultado real.
Feature list envelhece em uma semana e premia marketing; demo ao vivo premia o que funciona hoje na sua máquina para a sua tarefa.
Demo-first; tarefa controlada; observação cega; tempo real; honestidade com o aluno.
Lab-relâmpago: instalar/acessar Claude Code, Antigravity e DeerFlow, rodar a mesma mensagem "oi, o que você consegue fazer?" em cada um e anotar tempo, tom de resposta e fricção.
Calibrar a primeira impressão antes dos labs pesados evita que o aluno confunda "onboarding ruim" com "ferramenta ruim" nos módulos seguintes.
Onboarding comparado; tempo-para-primeira-resposta; tom do sistema; fricção de instalação; nota de baseline.
🧪 Labs comparativos 1 e 2
Os dois primeiros labs comparativos rodados nas três plataformas: uma tarefa de código que vai até o PR e uma tarefa de research com fontes citadas. O foco é desenvolver a disciplina de comparar com honestidade — tempo, qualidade, fricção, custo — sem viés de novidade.
Dar às três plataformas o mesmo módulo Python legado para refatorar (extrair funções, tipar, cobrir com testes) e exigir que o resultado saia como PR aberto num fork.
É a tarefa em que Claude Code e Antigravity naturalmente brilham — o aluno precisa sentir isso antes de cair em cima com pretextos de research.
Diff equivalente; testes passando; PR descrito; tempo total; quantas rodadas foram necessárias; custo em tokens.
Pedir às três plataformas um relatório sobre um tema definido, com no mínimo 10 fontes explicitamente citadas e uma conclusão escrita — o domínio clássico da skill deep-research do DeerFlow.
Research profundo com memória e multi-fonte é onde o harness genérico mostra sua força sobre IDE-agents focados em código.
10 fontes citáveis; diversidade de fontes; precisão factual; profundidade do relatório; tempo e custo comparados.
Quatro dimensões fixas para anotar em qualquer lab comparativo: tempo total até o entregável, qualidade do output, fricção do caminho e custo em tokens/dinheiro.
Comparação sem rubrica vira "gostei mais de X"; comparação com rubrica resiste a revisão por outra pessoa.
Tempo até entregável; nota de qualidade; número de rodadas; fricção UX; custo real; planilha por lab.
Método para reler os resultados da comparação descontando a novidade: a plataforma mais nova parece mais impressionante porque é nova, não porque é melhor.
Sem descontar novidade, toda comparação feita em 2026 elege Antigravity; com desconto, a conclusão passa a ser por tarefa.
Viés de novidade; efeito demo; reteste daqui a 30 dias; separar UX novo de capacidade; pesos por dimensão.
Fechar os dois primeiros labs com um parágrafo por plataforma, resumindo o que funcionou, o que atrapalhou e uma nota de 0 a 10 para cada uma nas duas tarefas.
Escrever obriga a conclusão — o aluno descobre que tinha opinião diferente do que imaginava só de ter usado as três.
Rubrica fechada; nota final por tarefa; comentário honesto; insumo para o guia do módulo 4.4.
🧭 Labs comparativos 3 e 4 + guia de escolha
A tarefa híbrida que mistura dados, apresentação e mensagem, e a tarefa de extensibilidade que força criar algo novo em cada plataforma. Fecha com a redação do guia de escolha pessoal: qual ferramenta usar para cada tipo de tarefa no dia a dia do aluno.
Tarefa de ponta a ponta: analisar um CSV de vendas, gerar um PPT com as conclusões e postar um resumo num canal Slack — três skills diferentes encadeadas num fluxo só.
É a tarefa em que DeerFlow ganha naturalmente, porque multi-skill e multi-channel estão no posicionamento dele — ver isso ao vivo vale mais que um slide.
Encadeamento de skills; data-analysis + ppt-generation; canal IM; tempo ponta-a-ponta; fricção de integração em cada plataforma.
Mesma capacidade nova (por exemplo, "consultar uma API interna e retornar X") implementada como skill/tool em cada uma das três plataformas para comparar DX, esforço e limites.
É o teste que separa "plataforma confortável" de "plataforma que você consegue dobrar" — o aluno sente o teto de extensibilidade de cada uma na pele.
DX de extensão; quantidade de código; test loop; onde publicar; reversibilidade; trigger accuracy da skill.
Mapeamento das tarefas em que DeerFlow ganha sem esforço (research profundo, multi-channel, fluxos longos com memória) e das que ele apenas empata ou perde (edição rápida de código, UX dentro do editor).
Curso honesto precisa dizer onde a própria ferramenta não é a melhor — é isso que faz o aluno confiar na recomendação quando ela chega.
Ganhos naturais; empates; perdas assumidas; recorte por tipo de tarefa; fim do viés de torcida.
Montar uma tabela final "tipo de tarefa → plataforma recomendada → justificativa em uma frase" consolidando os 4 labs e a matriz do módulo 4.1.
Tabela é a forma mais defensável de recomendação — cada linha pode ser contestada separadamente e revisada sem reabrir o debate todo.
Tabela de decisão; justificativa curta; exceções declaradas; data de validade; plano de reavaliação.
Documento curto de uso próprio em que o aluno registra, nas palavras dele, para quais tarefas vai usar cada uma das três plataformas no dia a dia depois do curso.
É o entregável que prova que o objetivo do módulo transversal foi atingido: escolher a ferramenta certa por tipo de tarefa, não por moda.
Guia pessoal; decisão por contexto; revisão periódica; compromisso com critério e não com ferramenta; fim honesto do curso.