MODULO 3.5

🔬 Projeto 3: Pesquisa Profunda Multiagente

Construa um sistema completo de Deep Research onde multiplos agentes pesquisam, sintetizam, escrevem e verificam informacoes — substituindo horas de pesquisa manual por um pipeline inteligente.

6
Topicos
50
Minutos
Avancado
Nivel
Projeto
Tipo
1

🔬 Deep Research: o conceito

Deep Research e um paradigma onde multiplos agentes de IA colaboram para realizar pesquisas abrangentes e profundas sobre qualquer topico. Em vez de depender de um unico modelo gerando texto com base apenas em seu treinamento (e possivelmente alucinando), um sistema de Deep Research envia agentes especializados para buscar informacoes em fontes reais, consolidar resultados, gerar relatorios estruturados e verificar a veracidade das afirmacoes. O resultado e uma pesquisa com qualidade comparavel a de um analista humano experiente — mas produzida em minutos em vez de horas.

Este paradigma ja esta em producao em empresas como Google (com o Deep Research do Gemini), Perplexity e diversas consultorias de inteligencia de mercado. A arquitetura tipica envolve entre 4 e 7 agentes trabalhando em pipeline: buscadores paralelos, um sintetizador, um escritor e um critico. Cada agente opera com contexto limpo e foco total em sua funcao, e o resultado final e exponencialmente superior ao que qualquer agente individual produziria sozinho.

💡 Conceito Fundamental

Deep Research transforma pesquisa de "uma pergunta para um LLM" em "uma missao para uma equipe de agentes especializados":

  • Multi-source research: Agentes buscam em multiplas fontes simultaneamente — web, documentacao tecnica, repositorios de codigo, bases academicas — garantindo cobertura ampla
  • Sintese inteligente: Resultados brutos sao consolidados, deduplicados e hierarquizados antes de virar texto final
  • Verificacao cruzada: Um agente critico compara informacoes de fontes diferentes, identifica contradicoes e verifica fatos
  • Output estruturado: O relatorio final inclui executive summary, secoes detalhadas, citacoes rastreadas e nivel de confianca por afirmacao

📊 Arquitetura tipica de Deep Research

  • Fase 1 — Decomposicao: O orquestrador recebe a pergunta e gera 3-8 sub-perguntas mais especificas para maximizar cobertura
  • Fase 2 — Busca paralela: Agentes de busca (web, docs, GitHub) trabalham simultaneamente em cada sub-pergunta
  • Fase 3 — Sintese: O sintetizador consolida todos os resultados, remove duplicatas e organiza hierarquicamente
  • Fase 4 — Escrita: O agente escritor transforma a sintese em relatorio formatado com citacoes
  • Fase 5 — Verificacao: O agente critico verifica fatos, identifica gaps e pode disparar novas buscas se necessario
2

🔎 Agentes de busca: web, docs, GitHub

A forca de um sistema de Deep Research esta nos seus agentes de busca especializados. Em vez de um unico agente tentando pesquisar em todos os lugares, cada buscador e otimizado para uma fonte especifica. O agente de busca web usa APIs como Tavily, Serper ou Brave Search para encontrar artigos, blog posts e noticias recentes. O agente de documentacao navega por docs oficiais, RFCs e papers academicos. O agente de GitHub busca repositorios, issues, pull requests e codigo fonte relevante. Trabalhando em paralelo, eles cobrem em segundos o que um humano levaria horas para pesquisar.

A chave para buscadores eficazes e a especializacao do prompt e das ferramentas. Cada agente recebe instrucoes especificas sobre como formular queries para sua fonte, como avaliar relevancia dos resultados e como estruturar o output para o sintetizador. O agente de web search, por exemplo, sabe reformular uma pergunta tecnica em termos que maximizam resultados em motores de busca. O agente de GitHub sabe combinar linguagem + topico + estrelas para encontrar repositorios relevantes. Essa especializacao produz resultados drasticamente melhores do que um agente generico tentando fazer tudo.

💡 Buscadores Especializados

Cada agente de busca opera com ferramentas e estrategias otimizadas para sua fonte:

  • Web Search Agent: Usa Tavily/Serper API, reformula queries para SEO reverso, filtra por data e relevancia, extrai snippets estruturados
  • Documentation Agent: Navega docs oficiais via sitemap, busca em bases como arXiv e Semantic Scholar, entende estrutura de papers academicos
  • GitHub Agent: Usa GitHub Search API, analisa README, issues e discussions, identifica projetos ativos vs abandonados pelo historico de commits
  • Execucao paralela: Todos os buscadores recebem as sub-perguntas simultaneamente, reduzindo o tempo total de pesquisa de minutos para segundos

📊 Implementacao pratica

  • Output padronizado: Cada buscador retorna resultados no mesmo schema JSON — {titulo, fonte, url, relevancia, resumo, data} — para facilitar a sintese
  • Controle de qualidade: Cada resultado recebe um score de relevancia (0-1) baseado na query original, e resultados abaixo de 0.3 sao descartados automaticamente
  • Limite de resultados: Cada buscador retorna no maximo 10-15 resultados por sub-pergunta, evitando sobrecarga no sintetizador
  • Retry com reformulacao: Se um buscador retorna menos de 3 resultados relevantes, ele reformula a query automaticamente e tenta novamente
3

📊 Agente sintetizador: reunir e filtrar

Dados brutos sem sintese sao inuteis. O agente sintetizador e o coracao intelectual do pipeline de Deep Research. Ele recebe dezenas (as vezes centenas) de resultados dos agentes de busca e precisa: identificar informacoes duplicadas vindas de fontes diferentes, resolver contradicoes entre fontes, hierarquizar por relevancia e confiabilidade, e organizar tudo em uma estrutura logica que o agente escritor possa transformar em relatorio. Este agente exige o modelo mais capaz do sistema — geralmente Claude Opus ou GPT-4o — porque a tarefa de sintese demanda raciocinio sofisticado.

A estrategia de sintese mais eficaz usa map-reduce sobre chunks: primeiro, cada conjunto de resultados e resumido individualmente (map), depois os resumos sao consolidados em um unico documento hierarquico (reduce). Isso permite que o sintetizador processe volumes enormes de informacao sem estourar a janela de contexto. O output e um documento estruturado com secoes tematicas, pontos-chave rankeados por frequencia e confiabilidade, e gaps identificados (areas onde nenhuma fonte forneceu informacao satisfatoria).

💡 Estrategias de Sintese

O sintetizador aplica tecnicas especificas para transformar caos em clareza:

  • Deduplicacao semantica: Identifica informacoes identicas de fontes diferentes usando similaridade de embeddings, nao apenas texto exato
  • Ranking por confiabilidade: Fontes oficiais (docs, papers) pesam mais que blog posts; informacoes confirmadas por 3+ fontes sobem no ranking
  • Resolucao de contradicoes: Quando fontes discordam, o sintetizador registra ambas as versoes com suas respectivas fontes e nivel de confianca
  • Gap analysis: Identifica sub-perguntas que nao foram adequadamente respondidas e pode disparar uma segunda rodada de buscas

📊 Map-Reduce para sintese

  • Fase Map: Cada bloco de 5-10 resultados e resumido individualmente, extraindo pontos-chave, dados quantitativos e citacoes relevantes
  • Fase Reduce: Os resumos parciais sao consolidados em um documento unico, agrupando informacoes por tema e eliminando redundancias
  • Output estruturado: O sintetizador produz JSON com {secoes: [{titulo, pontos_chave, fontes, confianca, gaps}]} para consumo pelo escritor
  • Metricas de qualidade: Cobertura (% de sub-perguntas respondidas), diversidade de fontes (minimo 3 tipos), e confianca media por secao
4

✍️ Agente escritor: relatorio final

O agente escritor transforma a sintese estruturada em um relatorio consumivel por humanos. Este nao e um simples "reescreva em prosa" — o escritor precisa tomar decisoes editoriais: qual nivel de detalhe e apropriado para o publico-alvo? Quais dados merecem destaque visual? Como organizar a narrativa para que as conclusoes mais importantes aparecam primeiro? O agente escritor recebe um template de output (executive summary, secoes detalhadas, conclusoes, referencias) e preenche cada secao usando os dados do sintetizador, mantendo consistencia de tom e estilo ao longo de todo o documento.

Uma das funcoes mais criticas do escritor e a gestao de citacoes. Cada afirmacao factual no relatorio precisa ser rastreavel ate sua fonte original. O escritor insere citacoes inline usando o formato [1], [2], etc., e gera uma secao de referencias ao final com URLs e datas de acesso. Isso nao e apenas boa pratica — e o que separa um relatorio util de uma alucinacao bem formatada. Em sistemas de producao, cada citacao e um link clicavel que permite ao leitor verificar a informacao na fonte original.

💡 Anatomia do Relatorio

O agente escritor produz um documento completo com estrutura profissional:

  • Executive Summary: 3-5 paragrafos com as conclusoes mais importantes — para quem tem 2 minutos para ler
  • Secoes detalhadas: Cada tema em profundidade, com dados quantitativos, comparacoes e exemplos praticos
  • Citacoes rastreadas: Toda afirmacao factual linkada a fonte original com [N], permitindo verificacao independente
  • Nivel de confianca: Cada secao recebe um indicador de confianca (alto/medio/baixo) baseado na qualidade e concordancia das fontes

📊 Boas praticas de geracao

  • Template-driven: O escritor recebe um template Jinja2/Markdown com secoes pre-definidas, garantindo consistencia entre relatorios
  • Adaptacao ao publico: Via parametro no prompt, o escritor ajusta linguagem — tecnica para engenheiros, executiva para C-level, simplificada para geral
  • Formatacao rica: Tabelas comparativas, listas de pros/cons, callout boxes para dados criticos — nao apenas prosa corrida
  • Anti-alucinacao: O escritor e instruido a nunca inventar dados — se a sintese nao contem a informacao, o relatorio diz "dados insuficientes"
5

🔍 Agente critico: verificacao de fatos

O agente critico e a ultima linha de defesa contra desinformacao no seu pipeline de Deep Research. Ele recebe o relatorio gerado pelo escritor e executa uma verificacao sistematica: cada afirmacao factual e checada contra as fontes originais, dados numericos sao cruzados entre fontes, e contradicoes sao sinalizadas com destaque. Este agente e o equivalente do fact-checker em uma redacao jornalistica — nao gera conteudo novo, apenas valida (ou invalida) o conteudo existente.

A implementacao mais robusta do agente critico usa um checklist de verificacao por categoria: dados numericos sao comparados com fontes primarias, datas sao validadas, nomes e titulos sao conferidos, e relacoes causais sao examinadas para garantir que o relatorio nao implica causalidade onde ha apenas correlacao. O agente produz um "report card" com cada afirmacao classificada como Verificada, Parcialmente Verificada, Nao Verificada ou Contraditoria. Afirmacoes nao verificadas podem disparar uma nova rodada de buscas, criando um loop de refinamento.

💡 Framework de Verificacao

O agente critico aplica checagens sistematicas em multiplas dimensoes:

  • Verificacao de fonte: A afirmacao realmente existe na fonte citada? A URL e acessivel? A informacao esta no contexto correto?
  • Verificacao cruzada: Multiplas fontes independentes confirmam a mesma informacao? Fontes que se citam mutuamente nao contam como independentes
  • Verificacao temporal: Os dados sao recentes o suficiente? Informacoes de 2023 sobre um mercado que muda mensalmente podem estar desatualizadas
  • Deteccao de bias: A fonte tem interesse comercial na informacao? Fontes de vendors sobre seus proprios produtos devem ser sinalizadas

📊 Report card de verificacao

  • Verificada (verde): Afirmacao confirmada por 2+ fontes independentes com alta confiabilidade
  • Parcialmente verificada (amarelo): Afirmacao confirmada por 1 fonte ou confirmada com ressalvas
  • Nao verificada (cinza): Nenhuma fonte encontrada para confirmar ou negar — mantida no relatorio com aviso
  • Contraditoria (vermelho): Fontes divergem significativamente — ambas versoes apresentadas com contexto
6

🔄 Pipeline completo: implementacao end-to-end

Agora que entendemos cada agente individualmente, e hora de montar o pipeline completo. A implementacao end-to-end conecta todos os agentes em um grafo de execucao usando LangGraph ou CrewAI. O grafo define a ordem de execucao, as condicoes de transicao (o critico pode enviar o relatorio de volta ao buscador se encontrar gaps) e o estado compartilhado entre agentes. O resultado e um sistema que recebe uma pergunta e produz um relatorio verificado em 2-5 minutos, dependendo da complexidade.

Em LangGraph, cada agente e um no do grafo, e as arestas definem o fluxo de dados entre eles. O estado (State) carrega as sub-perguntas, resultados de busca, sintese, rascunho do relatorio e resultado da verificacao. Condicoes nas arestas permitem loops: se o critico reprova mais de 30% das afirmacoes, o pipeline volta a fase de busca com queries refinadas. Em CrewAI, a abordagem e mais declarativa: voce define agentes com roles e tasks, e o framework cuida da orquestracao. Ambos produzem resultados similares — a escolha depende de quanto controle voce quer sobre o fluxo.

💡 Arquitetura do Pipeline

O fluxo completo do sistema de Deep Research:

  • Input → Decomposicao: Pergunta do usuario e decomposta em 3-8 sub-perguntas pelo orquestrador
  • Busca paralela: 3 agentes buscadores (web, docs, GitHub) trabalham simultaneamente em todas as sub-perguntas
  • Sintese → Escrita: Resultados consolidados pelo sintetizador e transformados em relatorio pelo escritor
  • Verificacao → Loop: Critico avalia o relatorio; se aprovacao < 70%, dispara nova rodada de busca com queries refinadas (maximo 2 iteracoes)

📊 Decisoes de implementacao

  • LangGraph: Ideal quando voce precisa de controle fino sobre condicoes de transicao, loops e estado. Melhor para pipelines com logica complexa
  • CrewAI: Ideal quando voce quer prototipar rapido com roles declarativos. Melhor para equipes que preferem abstracoes de alto nivel
  • Modelos recomendados: Sintetizador e critico usam o modelo mais capaz (Opus/GPT-4o); buscadores podem usar modelos menores (Haiku/GPT-4o-mini) para economizar
  • Custo tipico: Uma pesquisa completa consome ~50-100k tokens no total ($0.30-$1.50 dependendo dos modelos), versus horas de trabalho humano

⚠️ Cuidados na implementacao

Armadilhas comuns ao construir seu primeiro sistema de Deep Research:

  • Loops infinitos: Sempre defina um limite maximo de iteracoes (geralmente 2-3) para o loop critico-busca
  • Timeout por agente: Buscadores devem ter timeout de 30-60 segundos — fontes lentas nao podem travar o pipeline inteiro
  • Fallback graceful: Se um buscador falha, o pipeline continua com os resultados dos outros — degradacao graceful, nao falha total

📚 Resumo do Modulo

Deep Research - Sistema multiagente para pesquisa abrangente, sintetizada e verificada em minutos
Agentes de busca - Buscadores especializados (web, docs, GitHub) trabalhando em paralelo para cobertura maxima
Sintetizador - Deduplicacao, ranking e organizacao hierarquica dos resultados brutos
Escritor - Relatorio profissional com executive summary, secoes detalhadas e citacoes rastreadas
Critico/fact-checker - Verificacao sistematica de fatos, fontes e contradicoes com report card
Pipeline completo - Implementacao end-to-end com LangGraph/CrewAI, incluindo loops de refinamento

Proximo Modulo:

3.6 - Deploy e infraestrutura para swarms