O text-embedding-3-small da OpenAI é um dos modelos de embeddings mais utilizados em aplicações de IA. É a escolha preferida para desenvolvedores que constroem sistemas de busca, RAG (Geração Aumentada por Recuperação) e classificação. Aqui está tudo o que você precisa saber.
O que é
O text-embedding-3-small é um modelo de embedding da OpenAI que converte texto em vetores numéricos (embeddings). Esses vetores capturam o significado semântico do texto, permitindo a busca por similaridade, agrupamento e classificação.
Quando você envia texto para o modelo, ele retorna um vetor de 1.536 dimensões (por padrão). Textos com significados similares produzem vetores que estão próximos uns dos outros nesse espaço de alta dimensão.
Especificações Chave
Dimensões: 1.536 (padrão), pode ser reduzido para apenas 256 usando a aprendizagem de representação Matryoshka. Reduzir dimensões economiza armazenamento e acelera a busca com perda mínima de qualidade.
Entrada máxima: 8.191 tokens (~6.000 palavras). Longa o suficiente para a maioria dos documentos e trechos.
Desempenho: Desempenho forte em benchmarks padrão (MTEB). Não é o absoluto melhor, mas excelente para seu tamanho e custo.
Custo: $0,02 por milhão de tokens. Extremamente barato — embutir um milhão de palavras custa cerca de 3 centavos.
text-embedding-3-small vs. text-embedding-3-large
A OpenAI oferece dois modelos de embedding na família v3:
text-embedding-3-small: 1.536 dimensões, $0,02/M tokens. Bom desempenho, muito barato.
text-embedding-3-large: 3.072 dimensões, $0,13/M tokens. Melhor desempenho, 6,5 vezes mais caro.
Para a maioria das aplicações, o text-embedding-3-small é a melhor escolha. A diferença de qualidade é pequena, e a economia de custo é significativa. Use o text-embedding-3-large apenas quando você precisar da máxima precisão de recuperação e o custo não for uma preocupação.
Casos de Uso Comuns
Busca semântica. Converta documentos e consultas em embeddings e, em seguida, encontre os documentos mais semelhantes para qualquer consulta. Isso alimenta recursos de busca em aplicações de IA, bases de conhecimento e sites de documentação.
RAG (Geração Aumentada por Recuperação). O caso de uso mais comum. Embeda seus documentos, armazena-os em um banco de dados vetorial e recupera contextos relevantes quando os usuários fazem perguntas. O contexto recuperado é então passado para um LLM para gerar respostas precisas.
Classificação. Use embeddings como recursos para a classificação de texto. Os embeddings capturam o significado semântico, tornando a classificação mais precisa do que abordagens baseadas em palavras-chave.
Agrupamento. Agrupe documentos semelhantes com base em seus embeddings. Útil para organizar grandes coleções de documentos, identificar tópicos e detectar duplicatas.
Recomendação. Encontre itens semelhantes (produtos, artigos, conteúdos) com base em similaridade de embeddings. Mais sutil do que a correspondência de palavras-chave porque entende relações semânticas.
Como Usar
Usando a API da OpenAI:
Chame o endpoint de embeddings com seu texto e o nome do modelo “text-embedding-3-small”. A API retorna um vetor que você pode armazenar em um banco de dados vetorial (Pinecone, Weaviate, ChromaDB, pgvector) ou usar diretamente para cálculos de similaridade.
Para redução de dimensão, passe o parâmetro “dimensões” com o tamanho desejado (por exemplo, 256, 512, 1024). O modelo utiliza aprendizagem de representação Matryoshka para produzir vetores mais curtos que retêm a maior parte da informação semântica.
Dicas para os Melhores Resultados
Divida seus documentos. Não embeda documentos inteiros como vetores únicos. Divida-os em pedaços de 200-500 tokens para melhor precisão de recuperação.
Use pedaços significativos. Divida em limites de parágrafo ou seção, em vez de contagens arbitrárias de tokens. A coerência semântica dentro dos pedaços melhora a qualidade da recuperação.
Considere a redução de dimensão. Para aplicações em grande escala, reduzir as dimensões de 1.536 para 512 ou 256 pode reduzir significativamente os custos de armazenamento e acelerar a busca com perda mínima de qualidade.
Normalize vetores. Para busca por similaridade coseno, normalize seus vetores. A maioria dos bancos de dados vetoriais lida com isso automaticamente.
Alternativas
Cohere Embed v3: Qualidade competitiva, suporta várias línguas bem.
Voyage AI: Desempenho forte, especialmente para código e conteúdo técnico.
BGE (BAAI): Código aberto, pode ser executado localmente. Boa qualidade para uma opção gratuita.
Nomic Embed: Código aberto com desempenho competitivo.
Minha Opinião
O text-embedding-3-small é a escolha padrão para a maioria das aplicações de IA. É barato, rápido, fácil de usar e bom o suficiente para a imensa maioria dos casos de uso. Comece por aqui e considere alternativas somente se você tiver requisitos específicos (melhor suporte multilíngue, implantação local ou máxima precisão) que justifiquem a mudança.
🕒 Published: