text-embedding-3-small da OpenAI é um dos modelos de embedding mais utilizados para aplicações de IA. É a escolha preferida dos desenvolvedores que constroem sistemas de pesquisa, RAG (Geração Aumentada por Recuperação) e classificação. Aqui está tudo que você precisa saber.
O que é
text-embedding-3-small é um modelo de embedding da OpenAI que converte texto em vetores numéricos (embeddings). Esses vetores capturam o significado semântico do texto, permitindo a busca de semelhanças, agrupamento e classificação.
Quando você envia texto para o modelo, ele retorna um vetor de 1.536 dimensões (por padrão). Textos com significados semelhantes produzem vetores que se encontram próximos nesse espaço de alta dimensão.
Especificações Chave
Dimensões: 1.536 (padrão), pode ser reduzido até 256 usando o aprendizado da representação Matryoshka. Reduzir as dimensões economiza espaço de armazenamento e acelera a busca com uma mínima perda de qualidade.
Input máximo: 8.191 tokens (~6.000 palavras). Bastante longo para a maioria dos documentos e trechos.
Performance: Boas performances em benchmarks padrão (MTEB). Não é o melhor de todos, mas excelente para suas dimensões e custo.
Custo: $0,02 por milhão de tokens. Extremamente econômico: o embedding de um milhão de palavras custa cerca de 3 centavos.
text-embedding-3-small vs. text-embedding-3-large
OpenAI oferece dois modelos de embedding na família v3:
text-embedding-3-small: 1.536 dimensões, $0,02/M token. Boas performances, muito econômico.
text-embedding-3-large: 3.072 dimensões, $0,13/M token. Melhores performances, 6,5 vezes mais caro.
Para a maioria das aplicações, text-embedding-3-small é a melhor escolha. A diferença de qualidade é mínima e as economias nos custos são significativas. Use text-embedding-3-large apenas quando precisar da máxima precisão de recuperação e o custo não for um problema.
Usos Comuns
Busca semântica. Converta documentos e consultas em embeddings, depois encontre os documentos mais semelhantes para qualquer consulta. Isso alimenta as funcionalidades de pesquisa em aplicações de IA, bases de conhecimento e sites de documentação.
RAG (Geração Aumentada por Recuperação). O caso de uso mais comum. Insira seus documentos, armazene-os em um banco de dados vetorial e recupere o contexto relevante quando os usuários fizerem perguntas. O contexto recuperado é então passado para um LLM para gerar respostas precisas.
Classificação. Use embeddings como características para a classificação de texto. Os embeddings capturam o significado semântico, tornando a classificação mais precisa em comparação com abordagens baseadas em palavras-chave.
Agrupamento. Agrupe documentos semelhantes com base em seus embeddings. Útil para organizar grandes coleções de documentos, identificar tópicos e detectar duplicatas.
Recomendação. Encontre artigos semelhantes (produtos, itens, conteúdos) com base na semelhança dos embeddings. Mais sutil em comparação com o emparelhamento de palavras-chave, pois compreende as relações semânticas.
Como Usá-lo
Utilizando a API da OpenAI:
Chame o endpoint de embeddings com seu texto e o nome do modelo “text-embedding-3-small”. A API retornará um vetor que você pode armazenar em um banco de dados vetorial (Pinecone, Weaviate, ChromaDB, pgvector) ou usar diretamente para cálculos de semelhança.
Para redução de dimensões, passe o parâmetro “dimensões” com o tamanho desejado (por exemplo, 256, 512, 1024). O modelo utiliza o aprendizado da representação Matryoshka para produzir vetores mais curtos que mantêm a maior parte das informações semânticas.
Dicas para os Melhores Resultados
Divida seus documentos. Não insira documentos inteiros como vetores únicos. Separe-os em partes de 200-500 tokens para uma melhor precisão de recuperação.
Use partes significativas. Divida nos limites de parágrafos ou seções, em vez de contar tokens arbitrariamente. A consistência semântica dentro das partes melhora a qualidade da recuperação.
Considere a redução de dimensões. Para aplicações em larga escala, reduzir as dimensões de 1.536 para 512 ou 256 pode reduzir significativamente os custos de armazenamento e acelerar a busca com uma mínima perda de qualidade.
Normalize os vetores. Para a busca de semelhanças cosseno, normalize seus vetores. A maioria dos bancos de dados vetoriais faz isso automaticamente.
Alternativa
Cohere Embed v3: Qualidade competitiva, suporta bem várias línguas.
Voyage AI: Desempenho excelente, especialmente para conteúdos de código e técnicos.
BGE (BAAI): Open-source, pode ser executado localmente. Boa qualidade para uma opção gratuita.
Nomic Embed: Open-source com desempenho competitivo.
Minha Opinião
text-embedding-3-small é a escolha padrão para a maioria das aplicações AI. É econômico, rápido, fácil de usar e suficientemente bom para a grande maioria dos casos de uso. Comece por aqui e considere alternativas apenas se você tiver requisitos específicos (melhor suporte multilíngue, implementação local ou máxima precisão) que justifiquem a mudança.
🕒 Published: