Extraí a API do GitHub em 18 de março de 2026. Li discussões no Reddit com um total de mais de 1.500 upvotes. Verifiquei as páginas de preços, as histórias de versões e os gráficos de commits.
Sem enrolação. Dados.
Os Números
| LangChain | CrewAI | AutoGen | |
|---|---|---|---|
| Estrelas GitHub | 130.068 | 46.455 | 55.836 |
| Forks | 21.444 | 6.268 | 8.414 |
| Perguntas Abertas | 505 | 494 | 684 |
| Licença | MIT | MIT | CC-BY-4.0 |
| Última Versão Estável | 17 de março de 2026 | 18 de março de 2026 (v1.11.0) | 30 de setembro de 2025 (v0.7.5) |
| Commits (últimas 4 semanas) | 187 no total | 3 RC em 3 dias | Praticamente zero |
| Nascido | Out 2022 | Out 2023 | Agosto 2023 |
Fonte: API GitHub, extraída em 18 de março de 2026.
LangChain: 130K estrelas, 47 commits/semana, três anos e meio de vida e está acelerando ainda mais. Diga o que quiser sobre a DX — a equipe entrega.
CrewAI: 46K estrelas em dois anos e meio. Três versões candidatas em três dias consecutivos antes que a v1.11.0 se tornasse estável. Energia de uma pequena equipe. Avança rapidamente, provavelmente quebrando algo, mas pelo menos estão progredindo.
AutoGen: aqui as coisas ficam desconfortáveis. Última versão estável? Setembro de 2025. Seis meses de silêncio de um projeto apoiado pela Microsoft. 684 perguntas abertas se acumulando. A reescrita v0.4 dividiu a comunidade entre aqueles que usam a velha API e os que tentam entender a nova. Nenhum dos dois grupos parece satisfeito.
Mostre-me o Código
Bastante palavras. Aqui está a mesma tarefa — um agente controlador do clima — em cada framework mais o SDK padrão. Julgue você mesmo.
SDK OpenAI Cru (sem framework)
from openai import OpenAI
import json
client = OpenAI()
def get_weather(city: str) -> str:
return f"72°F and sunny in {city}" # sua verdadeira chamada de API aqui
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather for a city",
"parameters": {
"type": "object",
"properties": {"city": {"type": "string"}},
"required": ["city"]
}
}
}]
messages = [{"role": "user", "content": "What's the weather in Tokyo?"}]
response = client.chat.completions.create(
model="gpt-4o", messages=messages, tools=tools
)
# Gerenciar a chamada da ferramenta
tool_call = response.choices[0].message.tool_calls[0]
result = get_weather(json.loads(tool_call.function.arguments)["city"])
messages.append(response.choices[0].message)
messages.append({"role": "tool", "content": result, "tool_call_id": tool_call.id})
final = client.chat.completions.create(model="gpt-4o", messages=messages)
print(final.choices[0].message.content)
25 linhas. Zero mágica. Veja cada mensagem de entrada e saída. Quando quebra — e vai quebrar — você saberá exatamente onde olhar.
Isso é do que falava aquele post no Reddit com 685 upvotes quando disse “construa seu primeiro em cru.”
LangChain
from langchain.agents import create_agent
def get_weather(city: str) -> str:
"""Get current weather for a city."""
return f"72°F and sunny in {city}"
agent = create_agent(
model="gpt-4o",
tools=[get_weather],
system_prompt="You are a helpful weather assistant."
)
response = agent.invoke("What's the weather in Tokyo?")
print(response)
Limpo. Breve. E completamente opaco. O que acontece dentro de agent.invoke()? Ciclo de chamada da ferramenta, formatação da mensagem, lógica de recuperação, talvez um pouco de modelagem do prompt. Tudo é gerenciado para você. Maravilhoso — até às 2 da manhã, quando seu agente começa a devolver absurdos e você precisa passar por cinco camadas de abstração para tentar entender qual comeu sua resposta da ferramenta.
O verdadeiro valor do LangChain não está na abstração do agente. São as mais de 150 integrações (todas as lojas de vetores, todos os fornecedores de LLM, todos os uploads de documentos que você pode imaginar) e o LangSmith, que é realmente a melhor ferramenta de depuração para agentes disponível no momento. Mais sobre isso mais tarde.
CrewAI
“`html
from crewai import Agent, Task, Crew
from crewai.tools import tool
@tool
def get_weather(city: str) -> str:
"""Obter o clima atual de uma cidade."""
return f"22°C e ensolarado em {city}"
weather_agent = Agent(
role="Repórter do Clima",
goal="Fornecer informações climáticas precisas",
backstory="Você é um meteorologista que dá relatórios climáticos concisos.",
tools=[get_weather]
)
task = Task(
description="Qual é o clima em Tóquio?",
expected_output="Um breve relatório do clima",
agent=weather_agent
)
crew = Crew(agents=[weather_agent], tasks=[task])
result = crew.kickoff()
print(result)
Mais linhas, uma atmosfera completamente diferente. Você não está escrevendo um script, está dirigindo um filme. role, goal, backstory — o agente tem um arco de personagem mesmo antes de fazer algo.
Para checar o clima? Um extra ridículo. Para uma pipeline de conteúdo onde um “Pesquisador” explora fontes, um “Analista” encontra padrões e um “Escritor” escreve o artigo? Agora a metáfora é justificada. CrewAI brilha quando o problema realmente se assemelha a um trabalho em equipe.
AutoGen
import os
from autogen import AssistantAgent, UserProxyAgent
llm_config = {
"model": "gpt-4",
"api_key": os.environ["OPENAI_API_KEY"]
}
assistant = AssistantAgent("assistant", llm_config=llm_config)
user_proxy = UserProxyAgent("user_proxy", code_execution_config=False)
user_proxy.initiate_chat(assistant, message="Qual é o clima em Tóquio?")
Dois agentes. Que conversam entre si. Este é o cerne do AutoGen — o esquema conversacional. UserProxyAgent finge ser você, AssistantAgent responde. Para brainstorming ou revisão de código, é um paradigma interessante.
Para “me dê apenas o clima em Tóquio”? É como contratar duas pessoas para ter uma reunião sobre a verificação do aplicativo do clima.
Além disso: o modelo no exemplo oficial deles é sempre gpt-4, não gpt-4o. A documentação não foi atualizada. É um pequeno detalhe. Não é nem mesmo um pequeno detalhe.
O que o Reddit realmente pensa
Citações diretas. Contas de upvotes incluídas para que você possa pesá-las por si mesmo.
A voz mais forte na sala diz: evite frameworks
Da parte de um desenvolvedor que construiu agentes para mais de 20 empresas (685 upvotes):
“Não comece com LangChain ou CrewAI ou qualquer coisa que esteja na moda essa semana. Eles escondem muitas coisas. Você precisa entender o que acontece por trás dos panos. Escreva um script Python bruto que interroga a API OpenAI ou Anthropic. Envie uma mensagem. Receba uma resposta. É tudo.”
Da parte de alguém que constrói agentes para clientes há dois anos (378 upvotes):
“Aqueles que realmente ganham dinheiro e não ficam presos toda semana? Eles são embaraçosamente simples. Um agente único que lê e-mails e atualiza os campos do CRM (200 $/mês, funciona 24/7). Um parser de CV que extrai as informações-chave para os recrutadores (50 $/mês). Nenhum desses precisa de orquestração de agente. Ninguém precisa de sistemas de memória. Certamente não precisam de equipes de agentes se reunindo sobre o que fazer.”
Sua pilha de produção: API OpenAI, n8n, um webhook, talvez Supabase. É tudo. Ele ganha dinheiro. O cara com o sistema CrewAI de 47 agentes posta no LinkedIn.
O contra-argumento que merece ser ouvido
Um comentarista que realmente implementou um agente em um hospital (apenas 4 upvotes, mas leia assim mesmo):
“Recentemente, implementei um agente de voz IA em um hospital que classifica o estado dos pacientes de forma mensuravelmente mais precisa do que a equipe. Levou um ajuste enorme e uma ótima mensagem de sistema que o treinou para fazer o triagem dos pacientes, mas funciona muito bem.”
Nenhuma referência ao framework. Porque não importa. Ele gastou seu tempo no prompt e no ajuste, não em qual escolher entre LangChain e CrewAI.
O que ninguém quer dizer em voz alta
O comentário principal (75 upvotes) em um post popular “Passei 8 meses construindo agentes IA”?
“Obrigado. Foi realmente um bom ChatGPT.”
Segundo comentário (49 upvotes): “Os posts escritos por Chat GPT estão em todo lugar, mas aqui está o que aprendi. Nada, porque não me esforcei.”
“`
Metade dos “relatórios de experiência” sobre frameworks de agentes de IA são gerados pela própria IA. Estamos em uma sala de espelhos. Tenha isso em mente ao ler artigos de comparação. Incluindo, potencialmente, este — embora eu goste de pensar que os timestamps da API do GitHub e os links do Reddit me deem um pouco de credibilidade.
A Parte Prateada
| LangSmith | Plataforma CrewAI | AutoGen | |
|---|---|---|---|
| Gratuito | 5K rastros/mês, 1 lugar | 50 execuções/mês | Nenhuma plataforma existe |
| Pago | 39 $/lugar/mês | 25 $/mês (100 execuções) | — |
| Enterprise | Personalizado | Personalizado | — |
| O que você paga | Observabilidade & debug | Hospedagem & orquestração | Seu tempo |
Esses números são quase irrelevantes. Aqui está o porquê.
Um sistema multi-agente onde três agentes discutem um problema consome 30-50K tokens por execução. Com o preço do GPT-4o (2,50 $/1M de input, 10 $/1M de output), isso se traduz em 0,15-0,75 $ por execução. Se fizermos isso 1.000 vezes por mês: 150-750 $ em despesas da API. Os 25 $/mês da plataforma CrewAI são uma ninharia em comparação.
Enquanto isso, o bot de email a 200 $/mês daquele cara do Reddit? Provavelmente 5-10 $/mês em chamadas API. Um único agente, um único prompt, uma única chamada de ferramenta. As contas são impiedosas para as arquiteturas multi-agentes.
O Diagrama de Fluxo

Em outras palavras, por que nem todos carregam imagens :
Uma chamada LLM com um bom prompt pode resolver o problema? → Use o SDK. Pare aqui. A maioria dos problemas reside aqui e as pessoas não querem admitir isso.
Você precisa de chamadas de ferramentas mas sempre um agente? → Sempre o SDK. As chamadas de ferramentas são nativas de cada API LLM maior agora. Você não precisa de um framework para chamar uma função.
Você realmente precisa de mais agentes? (Seja honesto consigo mesmo.)
→ Você quer velocidade para prototipagem: CrewAI
→ Você quer controle total sobre a execução: LangGraph
→ Você quer agentes que discutem: AutoGen (mas releia primeiro a seção sobre os riscos de manutenção)
Você precisa de observabilidade em produção? → LangSmith. Funciona com tudo, mesmo sem nenhum framework.
O que eu realmente faria
Não o que eu recomendaria em uma conferência. O que eu realmente faria se tivesse que entregar algo na próxima semana:
- Construir v1 com chamadas SDK brutas. Feias, manuais, sem abstrações. Faça isso funcionar. Observe enquanto falha. Compreenda por que falha.
- Se um agente não pode realmente lidar com isso, prototipe a versão multi-agente na CrewAI. Isso levará uma tarde.
- Se o protótipo CrewAI funcionar, mas eu precisar de um controle mais rigoroso para produção, reescreva os caminhos críticos em LangGraph. Mantenha o CrewAI para as partes onde “suficientemente bom” é suficiente.
- LangSmith desde o primeiro dia. Não negociável. Estar na confusão com agentes em produção é como receber notificações às 3 da manhã.
O quinto ponto é o que ninguém segue: não adicione complexidade até que a versão simples quebre em produção. Nem durante os testes. Nem na sua cabeça. Em produção, com verdadeiros usuários, fazendo coisas reais. A maioria das pessoas nunca vai além do primeiro passo porque o primeiro passo realmente funciona.
O framework é 10% do resultado. O prompt, as definições das ferramentas, a gestão de erros, a avaliação — são os restantes 90%. É aí que o cara do hospital passou seu tempo. É aí que o cara do bot de email a 200 $/mês passou seu tempo.
É aí que você deve passar o seu.
Dados: API GitHub (18 de março de 2026), tarifas LangSmith, tarifas CrewAI. Discussões Reddit sobre r/AI_Agents e r/LangChain. Atualizado em 19 de março de 2026.
Artigos Relacionados
- Dominando o Teste de Agentes: Um Tutorial Prático com Exemplos
- Melhores Ferramentas de Completamento de Código AI 2025: Aumentando a Produtividade dos Desenvolvedores
- Make vs Activepieces: Qual é o Melhor para Pequenas Equipes
🕒 Published: