MODULO 4.7

🔧 Comandos avancados e otimizacao

Loop de perfeicao, contexto profundo, revisao pre-deploy, multimodal e monitoramento de custos.

6
Topicos
35
Minutos
Intermediario
Nivel
Passo a passo
Tipo
1

🔄 /ulw-loop: loop ate a perfeicao

O /ulw-loop e o modo mais persistente do swarm. Em vez de entregar na primeira tentativa, ele entra em um ciclo de execucao, revisao e correcao que so para quando o resultado atinge zero erros e qualidade satisfatoria.

💡 Como funciona o loop

# No chat do Sisyphus:
/ulw-loop

# O que acontece:
# Ciclo 1: Executa → Revisa → Encontra 5 problemas
# Ciclo 2: Corrige 5 problemas → Revisa → Encontra 2 problemas
# Ciclo 3: Corrige 2 problemas → Revisa → Zero problemas
# → Resultado final entregue!

# Ideal para:
# - Projetos onde qualidade e mais importante que velocidade
# - Codigo que precisa estar production-ready
# - Quando voce quer "set and forget" com maxima qualidade

📊 Quando usar

  • Use quando: Qualidade maxima e prioridade, voce pode esperar mais
  • Evite quando: Prototipo rapido, tarefa simples, orcamento limitado (cada loop consome tokens)
  • Tipicamente: 2-4 ciclos para convergir em projetos medios
2

📂 /init-deep: contexto profundo do projeto

Em projetos grandes, os agentes podem perder contexto sobre a estrutura do codebase. O /init-deep gera automaticamente um arquivo AGENTS.md em cada pasta do projeto, documentando o que cada diretorio contem e como os arquivos se relacionam.

💡 Usando init-deep

# No chat do Sisyphus:
/init-deep

# O que acontece:
# 1. Explorer escaneia todo o projeto
# 2. Cria AGENTS.md em cada diretorio
# 3. Cada arquivo documenta:
#    - O que esta pasta contem
#    - Quais arquivos sao criticos
#    - Dependencias entre modulos
#    - Convencoes do projeto
#
# Resultado: agentes tomam decisoes muito melhores
# porque entendem a estrutura completa do codebase
3

🔍 /review: revisao antes do deploy

O /review e sua ultima camada de seguranca antes de entregar. Ele ativa o agente revisor que analisa o diff das mudancas, busca problemas de seguranca, performance e qualidade, e sugere melhorias.

💡 Executando review

# No chat:
/review

# O agente revisor:
# 1. Analisa o diff (mudancas desde ultimo commit)
# 2. Busca problemas:
#    - Seguranca (XSS, injecao, dados expostos)
#    - Performance (assets pesados, loops ineficientes)
#    - Qualidade (codigo duplicado, funcoes longas)
#    - Acessibilidade (alt em imagens, contraste)
# 3. Gera relatorio com sugestoes
# 4. Pode corrigir automaticamente se voce autorizar
4

🖼️ Multimodal Looker: de imagem para codigo

O Multimodal Looker e o agente visual do swarm. Voce fornece uma imagem (screenshot, mockup do Figma, foto de um rascunho no papel) e ele converte em codigo HTML/CSS. Acelera drasticamente a implementacao de designs.

💡 Usando o Multimodal Looker

  • Screenshot de site: Tire print de um site que voce gosta e peca para replicar o layout
  • Mockup Figma: Exporte a tela como PNG e o agente converte em HTML pixel-perfect
  • Rascunho no papel: Tire foto do seu wireframe e o agente interpreta a estrutura
  • Erro visual: Mostre um screenshot de um bug visual e peca para corrigir
5

🔧 Trocar provedor no meio da execucao

Isso aconteceu na aula real: os creditos de Claude acabaram no meio de um projeto. A solucao? Editar o arquivo de configuracao e trocar o modelo — sem perder nenhum progresso.

💡 Procedimento de troca

# 1. Abrir o arquivo em outro terminal/aba
nano .opencode/oh-my-opencode.jsonc

# 2. Trocar o modelo do agente afetado
# Exemplo: Claude acabou, trocar Sisyphus para GPT:
#   "sisyphus": { "model": "openai/gpt-5.3-codex" }

# 3. Salvar o arquivo (Ctrl+O, Enter, Ctrl+X)

# 4. O OpenCode detecta automaticamente
# → Agente continua com novo modelo
# → Zero progresso perdido
# → Execucao nao para

# Dica: mantenha uma "lista B" de modelos alternativos
# para trocar rapidamente se necessario
6

📊 Monitorando custo e tokens

Com multiplos agentes trabalhando em paralelo, os custos podem subir rapidamente se voce nao monitorar. Cada agente consome tokens do seu provedor, e os custos variam entre modelos.

💡 Estrategias de monitoramento

  • Dashboard do provedor: Acesse console.anthropic.com, platform.openai.com ou console.cloud.google.com para ver consumo em tempo real
  • Custo por agente: Sisyphus e Prometheus consomem mais (modelos grandes). Oracle, Librarian e Explore consomem menos (modelos leves/gratuitos)
  • Otimizacao: Use modelos gratuitos para suporte, reserve pagos para tarefas criticas
  • Alerta: Configure alertas de gasto nos dashboards dos provedores para evitar surpresas

📊 Estimativas de custo tipicas

  • Tarefa simples (natural): ~$0.05 - $0.20
  • Projeto medio (Prometheus): ~$0.50 - $2.00
  • Projeto grande (ultrawork): ~$2.00 - $8.00
  • Com /ulw-loop: Multiplique por 2-4x (cada ciclo consome tokens)
  • 100% gratuito: $0.00 (mas qualidade menor)

📚 Resumo do Modulo

/ulw-loop - Loop de execucao, revisao e correcao ate a perfeicao
/init-deep - AGENTS.md em cada pasta para contexto profundo
/review - Revisao de seguranca, performance e qualidade pre-deploy
Multimodal Looker - Converter imagens em codigo HTML/CSS
Hot-swap de provedor - Trocar modelo sem perder progresso
Monitoramento de custos - Dashboards, alertas e otimizacao

Proximo Modulo:

4.8 - Projeto guiado completo: do zero ao deploy