\n\n\n\n text-embedding-3-small : Le modèle d'embedding d'OpenAI expliqué - AgntDev \n

text-embedding-3-small : Le modèle d’embedding d’OpenAI expliqué

📖 5 min read890 wordsUpdated Mar 26, 2026

Le modèle text-embedding-3-small d’OpenAI est l’un des modèles d’embedding les plus utilisés pour les applications d’IA. C’est le choix privilégié des développeurs qui construisent des systèmes de recherche, RAG (Génération Augmentée par Récupération) et de classification. Voici tout ce que vous devez savoir.

Ce que c’est

Le modèle text-embedding-3-small d’OpenAI convertit le texte en vecteurs numériques (embeddings). Ces vecteurs capturent la signification sémantique du texte, permettant la recherche de similarité, le clustering et la classification.

Lorsque vous envoyez du texte au modèle, il renvoie un vecteur de 1 536 dimensions (par défaut). Les textes ayant des significations similaires produisent des vecteurs qui sont proches les uns des autres dans cet espace de haute dimension.

Spécifications clés

Dimensions : 1 536 (par défaut), peut être réduit à 256 en utilisant l’apprentissage de représentation Matryoshka. La réduction des dimensions permet de gagner de l’espace de stockage et d’accélérer la recherche avec une perte de qualité minimale.

Entrée max : 8 191 tokens (~6 000 mots). Suffisamment long pour la plupart des documents et passages.

Performance : Bonne performance sur les benchmarks standards (MTEB). Ce n’est pas le meilleur absolu, mais excellent pour sa taille et son coût.

Coût : 0,02 $ par million de tokens. Extrêmement bon marché — l’embedding d’un million de mots coûte environ 3 cents.

text-embedding-3-small vs. text-embedding-3-large

OpenAI propose deux modèles d’embedding dans la famille v3 :

text-embedding-3-small : 1 536 dimensions, 0,02 $/M tokens. Bonne performance, très économique.

text-embedding-3-large : 3 072 dimensions, 0,13 $/M tokens. Meilleure performance, 6,5 fois plus cher.

Pour la plupart des applications, text-embedding-3-small est le meilleur choix. La différence de qualité est faible, et les économies de coût sont significatives. Utilisez text-embedding-3-large uniquement lorsque vous avez besoin d’une précision de récupération maximale et que le coût n’est pas un souci.

Cas d’utilisation courants

Recherche sémantique. Convertissez des documents et des requêtes en embeddings, puis trouvez les documents les plus similaires pour n’importe quelle requête. Cela alimente les fonctionnalités de recherche dans les applications d’IA, les bases de connaissances et les sites de documentation.

RAG (Génération Augmentée par Récupération). Le cas d’utilisation le plus courant. Embed vos documents, stockez-les dans une base de données de vecteurs, et récupérez le contexte pertinent lorsque les utilisateurs posent des questions. Le contexte récupéré est ensuite transmis à un LLM pour générer des réponses précises.

Classification. Utilisez des embeddings comme caractéristiques pour la classification de texte. Les embeddings capturent la signification sémantique, rendant la classification plus précise que les approches basées sur les mots-clés.

Clustering. Regroupez des documents similaires en fonction de leurs embeddings. Utile pour organiser de grandes collections de documents, identifier des sujets et détecter des doublons.

Recommandation. Trouvez des éléments similaires (produits, articles, contenus) en fonction de la similarité des embeddings. Plus nuancé que l’appariement de mots-clés car cela comprend les relations sémantiques.

Comment l’utiliser

En utilisant l’API OpenAI :

Appelez le point de terminaison des embeddings avec votre texte et le nom du modèle “text-embedding-3-small”. L’API renvoie un vecteur que vous pouvez stocker dans une base de données de vecteurs (Pinecone, Weaviate, ChromaDB, pgvector) ou utiliser directement pour des calculs de similarité.

Pour la réduction de dimensions, passez le paramètre “dimensions” avec votre taille souhaitée (par exemple, 256, 512, 1024). Le modèle utilise l’apprentissage de représentation Matryoshka pour produire des vecteurs plus courts qui conservent la plupart des informations sémantiques.

Conseils pour de meilleurs résultats

Divisez vos documents. Ne pas embedder des documents entiers comme des vecteurs uniques. Divisez-les en morceaux de 200-500 tokens pour une meilleure précision de récupération.

Utilisez des morceaux significatifs. Divisez aux limites des paragraphes ou des sections plutôt qu’à des nombres de tokens arbitraires. La cohésion sémantique à l’intérieur des morceaux améliore la qualité de récupération.

Considérez la réduction de dimension. Pour les applications à grande échelle, réduire les dimensions de 1 536 à 512 ou 256 peut réduire significativement les coûts de stockage et accélérer la recherche avec une perte de qualité minimale.

Normalisez les vecteurs. Pour la recherche par similarité cosinus, normalisez vos vecteurs. La plupart des bases de données de vecteurs gèrent cela automatiquement.

Alternatives

Cohere Embed v3 : Qualité compétitive, prend bien en charge plusieurs langues.
Voyage AI : Forte performance, particulièrement pour le code et le contenu technique.
BGE (BAAI) : Open-source, peut être exécuté localement. Bonne qualité pour une option gratuite.
Nomic Embed : Open-source avec une performance compétitive.

Mon avis

text-embedding-3-small est le choix par défaut pour la plupart des applications d’IA. Il est peu coûteux, rapide, facile à utiliser et suffisamment bon pour la grande majorité des cas d’utilisation. Commencez ici, et ne considérez des alternatives que si vous avez des exigences spécifiques (meilleur support multilingue, déploiement local ou précision maximale) qui justifient le changement.

🕒 Published:

✍️
Written by Jake Chen

AI technology writer and researcher.

Learn more →
Browse Topics: Agent Frameworks | Architecture | Dev Tools | Performance | Tutorials

More AI Agent Resources

BotsecBotclawAgntlogClawseo
Scroll to Top