Il modello text-embedding-3-small di OpenAI è uno dei modelli di embedding più utilizzati per le applicazioni di IA. È la scelta preferita degli sviluppatori che costruiscono sistemi di ricerca, RAG (generazione aumentata da recupero) e classificazione. Ecco tutto ciò che devi sapere.
Cosa è
text-embedding-3-small è un modello di embedding di OpenAI che converte il testo in vettori numerici (embeddings). Questi vettori catturano il significato semantico del testo, consentendo la ricerca di similarità, il raggruppamento e la classificazione.
Quando invii del testo al modello, restituisce un vettore di 1.536 dimensioni (di default). I testi con significati simili producono vettori vicini tra loro in questo spazio ad alta dimensione.
Specifiche chiave
Dimensioni: 1.536 (di default), può essere ridotto a soli 256 utilizzando l’apprendimento di rappresentazione Matryoshka. La riduzione delle dimensioni consente di risparmiare spazio di archiviazione e di accelerare la ricerca con una perdita di qualità minima.
Entrata max: 8.191 token (~6.000 parole). Abbastanza lungo per la maggior parte dei documenti e degli estratti.
Performance: Buone prestazioni su benchmark standard (MTEB). Non è il migliore in assoluto, ma è eccellente per la sua dimensione e il suo costo.
Costo: 0,02 $ per milione di token. Estremamente economico: l’embedding di un milione di parole costa circa 3 centesimi.
text-embedding-3-small vs. text-embedding-3-large
OpenAI offre due modelli di embedding nella famiglia v3:
text-embedding-3-small: 1.536 dimensioni, 0,02 $/M token. Buone prestazioni, molto economico.
text-embedding-3-large: 3.072 dimensioni, 0,13 $/M token. Migliori prestazioni, 6,5 volte più caro.
Per la maggior parte delle applicazioni, text-embedding-3-small è la scelta migliore. La differenza di qualità è minima e i risparmi sui costi sono significativi. Usa text-embedding-3-large solo quando hai bisogno di massima precisione di recupero e il costo non è un problema.
Casi d’uso comuni
Ricerca semantica. Converti documenti e query in embeddings, quindi trova i documenti più simili per ogni query. Questo alimenta le funzionalità di ricerca nelle applicazioni di IA, nelle basi di conoscenza e nei siti di documentazione.
RAG (Generazione aumentata da recupero). Il caso d’uso più comune. Integra i tuoi documenti, conservali in un database vettoriale e recupera il contesto pertinente quando gli utenti pongono domande. Il contesto recuperato viene poi passato a un LLM per generare risposte accurate.
Classificazione. Utilizza gli embeddings come caratteristiche per la classificazione del testo. Gli embeddings catturano il significato semantico, rendendo la classificazione più precisa rispetto agli approcci basati su parole chiave.
Raggruppamento. Raggruppa documenti simili in base ai loro embeddings. Utile per organizzare ampie collezioni di documenti, identificare argomenti e rilevare duplicati.
Raccomandazione. Trova articoli simili (prodotti, articoli, contenuti) in base alla similarità degli embeddings. Più sfumata rispetto al raggruppamento per parole chiave, poiché comprende le relazioni semantiche.
Come usarlo
Utilizzo dell’API OpenAI:
Chiama l’endpoint degli embeddings con il tuo testo e il nome del modello “text-embedding-3-small”. L’API restituisce un vettore che puoi memorizzare in un database vettoriale (Pinecone, Weaviate, ChromaDB, pgvector) o utilizzare direttamente per calcoli di similarità.
Per la riduzione della dimensione, passa il parametro “dimensioni” con la dimensione desiderata (ad esempio, 256, 512, 1024). Il modello utilizza l’apprendimento di rappresentazione Matryoshka per produrre vettori più brevi che conservano la maggior parte delle informazioni semantiche.
Consigli per ottenere risultati migliori
Dividi i tuoi documenti. Non immettere documenti interi come vettori unici. Suddividili in pezzi di 200-500 token per una migliore precisione di recupero.
Utilizza pezzi significativi. Dividi ai limiti di paragrafo o sezione piuttosto che a conteggi di token arbitrari. La coerenza semantica all’interno dei pezzi migliora la qualità del recupero.
Considera la riduzione della dimensione. Per applicazioni su larga scala, ridurre le dimensioni da 1.536 a 512 o 256 può ridurre notevolmente i costi di archiviazione e accelerare la ricerca con una perdita di qualità minima.
Normalizza i vettori. Per la ricerca di similarità coseno, normalizza i tuoi vettori. La maggior parte dei database vettoriali gestisce questo automaticamente.
Alternative
Cohere Embed v3: Qualità competitiva, supporta bene più lingue.
Voyage AI: Ottime prestazioni, in particolare per il codice e contenuti tecnici.
BGE (BAAI): Open-source, può essere eseguito localmente. Buona qualità per un’opzione gratuita.
Nomic Embed: Open-source con prestazioni competitive.
Il mio parere
text-embedding-3-small è la scelta predefinita per la maggior parte delle applicazioni di IA. È economico, veloce, facile da usare e sufficientemente buono per la stragrande maggioranza dei casi d’uso. Inizia qui e considera altre opzioni solo se hai requisiti specifici (miglior supporto multilingue, distribuzione locale o massima precisione) che giustifichino il cambiamento.
🕒 Published: