Eu extrai a API GitHub em 18 de março de 2026. Li tópicos no Reddit com um total de mais de 1.500 upvotes. Verifiquei páginas de precificação, históricos de versão, gráficos de commits.
Sem ondas. Apenas dados.
Os Números
| LangChain | CrewAI | AutoGen | |
|---|---|---|---|
| Stars GitHub | 130.068 | 46.455 | 55.836 |
| Forks | 21.444 | 6.268 | 8.414 |
| Perguntas Abertas | 505 | 494 | 684 |
| Licença | MIT | MIT | CC-BY-4.0 |
| Última Estável | 17 de março de 2026 | 18 de março de 2026 (v1.11.0) | 30 de setembro de 2025 (v0.7.5) |
| Commits (últimas 4 semanas) | 187 no total | 3 RCs em 3 dias | Praticamente zero |
| Nascido | Out 2022 | Out 2023 | Ago 2023 |
Fonte: API GitHub, extraída em 18 de março de 2026.
LangChain: 130K estrelas, 47 commits/semana, três anos e meio de idade e ainda acelerando. Diga o que quiser sobre a DX — a equipe entrega.
CrewAI: 46K estrelas em dois anos e meio. Três versões candidatas em três dias consecutivos antes que v1.11.0 se tornasse estável. Energia de uma pequena equipe. Avança rápido, provavelmente quebrando coisas, mas pelo menos estão progredindo.
AutoGen: é aqui que fica desconfortável. Última versão estável? Setembro de 2025. Seis meses de silêncio de um projeto apoiado pela Microsoft. 684 perguntas abertas se acumulando. A reescrita v0.4 dividiu a comunidade entre os que usam a antiga API e os que tentam entender a nova. Nenhum dos dois grupos parece satisfeito.
Mostre-me o Código
Chega de conversa. Aqui está a mesma tarefa — um agente verificador do clima — em cada framework mais o SDK padrão. Julgue você mesmo.
SDK OpenAI Bruto (sem framework)
from openai import OpenAI
import json
client = OpenAI()
def get_weather(city: str) -> str:
return f"72°F e ensolarado em {city}" # seu verdadeiro chamado da API aqui
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Obter o clima atual para uma cidade",
"parameters": {
"type": "object",
"properties": {"city": {"type": "string"}},
"required": ["city"]
}
}
}]
messages = [{"role": "user", "content": "Como está o clima em Tóquio?"}]
response = client.chat.completions.create(
model="gpt-4o", messages=messages, tools=tools
)
# Processar o chamado da ferramenta
tool_call = response.choices[0].message.tool_calls[0]
result = get_weather(json.loads(tool_call.function.arguments)["city"])
messages.append(response.choices[0].message)
messages.append({"role": "tool", "content": result, "tool_call_id": tool_call.id})
final = client.chat.completions.create(model="gpt-4o", messages=messages)
print(final.choices[0].message.content)
25 linhas. Zero mágica. Você vê cada mensagem que entra e sai. Quando dá problema — e vai dar problema — você saberá exatamente onde olhar.
Era disso que falava este post do Reddit com 685 upvotes quando disse “construa seu primeiro em bruto.”
LangChain
from langchain.agents import create_agent
def get_weather(city: str) -> str:
"""Obter o clima atual para uma cidade."""
return f"72°F e ensolarado em {city}"
agent = create_agent(
model="gpt-4o",
tools=[get_weather],
system_prompt="Você é um assistente de clima útil."
)
response = agent.invoke("Como está o clima em Tóquio?")
print(response)
Limpo. Curto. E completamente opaco. O que acontece dentro de agent.invoke()? Chamada de ferramenta, formatação de mensagem, lógica de re-tentativas, talvez um pouco de modelagem de prompt. Tudo é gerenciado para você. Maravilhoso — até às 2 da manhã, quando seu agente começa a retornar absurdos e você tem que passar por cinco camadas de abstração para tentar entender qual comeu sua resposta de ferramenta.
O verdadeiro valor do LangChain não é a abstração do agente. São as mais de 150 integrações (todas as lojas de vetores, todos os fornecedores de LLM, todos os carregadores de documentos que você pode imaginar) e o LangSmith, que é realmente a melhor ferramenta de depuração de agentes disponível no momento. Mais sobre isso depois.
CrewAI
from crewai import Agent, Task, Crew
from crewai.tools import tool
@tool
def get_weather(city: str) -> str:
"""Obter o clima atual para uma cidade."""
return f"72°F e ensolarado em {city}"
weather_agent = Agent(
role="Repórter do Clima",
goal="Fornecer informações climáticas precisas",
backstory="Você é um meteorologista que dá relatórios climáticos concisos.",
tools=[get_weather]
)
task = Task(
description="Como está o clima em Tóquio?",
expected_output="Um breve relatório do clima",
agent=weather_agent
)
crew = Crew(agents=[weather_agent], tasks=[task])
result = crew.kickoff()
print(result)
Mais linhas, uma atmosfera totalmente diferente. Você não está escrevendo um script, você está dirigindo um filme. role, goal, backstory — o agente tem um arco de personagem antes mesmo de ter feito algo.
Para verificar o clima? Um exagero ridículo. Para um pipeline de conteúdo onde um “Pesquisador” desenterra fontes, um “Analista” encontra padrões, e um “Escritor” redige o artigo? Agora, a metáfora faz sentido. CrewAI brilha quando o problema realmente parece um trabalho em equipe.
AutoGen
import os
from autogen import AssistantAgent, UserProxyAgent
llm_config = {
"model": "gpt-4",
"api_key": os.environ["OPENAI_API_KEY"]
}
assistant = AssistantAgent("assistant", llm_config=llm_config)
user_proxy = UserProxyAgent("user_proxy", code_execution_config=False)
user_proxy.initiate_chat(assistant, message="Como está o clima em Tóquio?")
Dois agentes. Conversando um com o outro. Esse é o todo do AutoGen — o esquema conversacional. UserProxyAgent finge ser você, AssistantAgent responde. Para brainstorming ou revisão de código, é um paradigma interessante.
Para “me dê apenas o clima em Tóquio”? É como contratar duas pessoas para ter uma reunião sobre a verificação do aplicativo do clima.
Além disso: o modelo em seu exemplo oficial ainda é gpt-4, não gpt-4o. A documentação não foi atualizada. É um pequeno detalhe. Também não é um pequeno detalhe.
O Que Reddit Realmente Pensa
Citações diretas. Contagens de upvotes inclusas para que você possa pesar por si mesmo.
A voz mais alta na sala diz: evitem os frameworks
De um desenvolvedor que construiu agentes para mais de 20 empresas (685 upvotes) :
“Não comece com LangChain ou CrewAI ou qualquer coisa que esteja na moda esta semana. Eles escondem muitas coisas. Você precisa entender o que está acontecendo sob o capô. Escreva um script Python bruto que consulte a API OpenAI ou Anthropic. Envie uma mensagem. Receba uma resposta. É só isso.”
De alguém que constrói agentes para clientes há dois anos (378 upvotes) :
“Aqueles que realmente ganham dinheiro e não quebram a cada semana? Eles são embaraçosamente simples. Um único agente que lê e-mails e atualiza campos de CRM (200 $/mês, funciona 24/7). Um parser de currículos que extrai informações-chave para recrutadores (50 $/mês). Nenhum desses precisa de orquestração de agentes. Nenhum precisa de sistemas de memória. Eles certamente não precisam de equipes de agentes tendo reuniões sobre o que fazer.”
Seu stack de produção: OpenAI API, n8n, um webhook, talvez Supabase. É só isso. Ele está ganhando dinheiro. O cara com o sistema CrewAI de 47 agentes faz postagens no LinkedIn.
O contraponto que merece ser ouvido
Um comentarista que realmente implantou um agente em um hospital (apenas 4 upvotes, mas leia mesmo assim) :
“Recentemente, implantei um agente vocal IA em um hospital que classifica o estado dos pacientes de forma mensuravelmente mais precisa do que a equipe. Isso exigiu um enorme ajuste e uma excelente mensagem de sistema que o treinou para triagem de pacientes, mas funciona muito bem.”
Nenhuma menção do framework. Porque isso não importa. Ele gastou seu tempo no prompt e no ajuste, não escolhendo entre LangChain e CrewAI.
O que ninguém quer dizer em voz alta
O comentário principal (75 upvotes) em um post popular “Eu passei 8 meses construindo agentes IA”?
“Obrigado. Foi realmente bom ChatGPT.”
Segundo comentário (49 upvotes): “Os posts escritos pelo Chat GPT estão por toda parte, mas aqui está o que eu aprendi. Nada, porque eu não fiz esforço.”
Metade dos “relatos de experiência” sobre frameworks de agentes IA são gerados pela própria IA. Estamos em uma sala de espelhos. Tenha isso em mente ao ler artigos comparativos. Incluindo, potencialmente, este — mesmo que eu goste de pensar que os timestamps da API do GitHub e os links do Reddit me dão um pouco de credibilidade.
A Parte do Dinheiro
| LangSmith | Plataforma CrewAI | AutoGen | |
|---|---|---|---|
| Gratuito | 5K execuções/mês, 1 assento | 50 execuções/mês | Nenhuma plataforma existe |
| Pago | 39 $/assento/mês | 25 $/mês (100 execuções) | — |
| Empresarial | Personalizado | Personalizado | — |
| O que você paga | Observabilidade & depuração | Hospedagem & orquestração | Seu próprio tempo |
Esses números são quase irrelevantes. Aqui está o porquê.
Um sistema multi-agente onde três agentes discutem um problema consome 30-50K tokens por execução. Com a tarifa do GPT-4o (2,50 $/1M de entrada, 10 $/1M de saída), isso resulta em 0,15-0,75 $ por execução. Se fizer isso 1.000 vezes por mês: 150-750 $ em taxas de API. Os 25 $/mês da plataforma CrewAI são uma ninharia perto disso.
Enquanto isso, o bot de e-mail a 200 $/mês desse cara do Reddit? Provavelmente 5-10 $/mês em chamadas de API. Um único agente, um único prompt, uma única chamada de ferramenta. A matemática é cruel para arquiteturas multi-agentes.
O Diagrama de Fluxo

Em palavras, porque nem todo mundo carrega imagens:
Uma chamada LLM com um bom prompt pode resolver o problema? → Use o SDK. Pare aqui. A maioria dos problemas está aqui e as pessoas não querem admitir.
Precisa de chamadas de ferramentas mas ainda um agente? → Sempre o SDK. As chamadas de ferramentas são nativas de cada API LLM importante agora. Você não precisa de um framework para chamar uma função.
Você realmente precisa de múltiplos agentes? (Seja honesto consigo mesmo.)
→ Você quer rapidez para prototipagem: CrewAI
→ Você quer controle total sobre a execução: LangGraph
→ Você quer agentes que discutem: AutoGen (mas releia primeiro a seção sobre os riscos de manutenção)
Precisa de observabilidade em produção? → LangSmith. Funciona com tudo, incluindo sem framework algum.
O que eu realmente faria
Não o que eu recomendaria em uma conferência. O que eu realmente faria se tivesse que entregar algo na próxima semana:
- Construir a v1 com chamadas SDK brutas. Feias, manuais, sem abstrações. Fazer isso funcionar. Assistir a isso falhar. Entender por que isso falha.
- Se um agente realmente não consegue lidar com isso, prototipar a versão multi-agente no CrewAI. Isso levará uma tarde.
- Se o protótipo do CrewAI funcionar mas eu precisar de um controle mais rigoroso para a produção, reescrever os caminhos críticos no LangGraph. Manter o CrewAI para as partes onde “bastante bom” é suficiente.
- LangSmith desde o primeiro dia. Não negociável. Estar na nebulosidade com agentes em produção é como se receber notificações às 3 da manhã.
O quinto ponto é aquele que ninguém segue: não adicionar complexidade enquanto a versão simples não falhar em produção. Nem durante os testes. Nem na sua cabeça. Em produção, com usuários reais, fazendo coisas reais. A maioria das pessoas nunca vai além do primeiro passo porque o primeiro passo realmente funciona.
O framework é 10% do resultado. O prompt, as definições de ferramentas, a gestão de erros, a avaliação — isso são os 90% restantes. É onde o cara do hospital passou seu tempo. É onde o cara do bot de e-mail a 200 $/mês passou seu tempo.
É onde você deve passar o seu.
Dados: API GitHub (18 de março de 2026), preços LangSmith, preços CrewAI. Discussões no Reddit sobre r/AI_Agents e r/LangChain. Atualizado em 19 de março de 2026.
Artigos Relacionados
- Dominando Testes de Agente: Um Tutorial Prático com Exemplos
- Melhores Ferramentas de Completação de Código AI 2025: Aumentando a Produtividade dos Desenvolvedores
- Make vs Activepieces: Qual para Pequenas Equipes
🕒 Published: