Il modello text-embedding-3-small di OpenAI è uno dei modelli di embedding più utilizzati per le applicazioni di intelligenza artificiale. È la scelta preferita per gli sviluppatori che costruiscono sistemi di ricerca, RAG (Generazione Aumentata da Recupero) e classificazione. Ecco tutto ciò che devi sapere.
Cos’è
text-embedding-3-small è un modello di embedding di OpenAI che converte il testo in vettori numerici (embeddings). Questi vettori catturano il significato semantico del testo, consentendo la ricerca di similarità, il clustering e la classificazione.
Quando invii del testo al modello, restituisce un vettore di 1.536 dimensioni (per impostazione predefinita). I testi con significati simili producono vettori che sono vicini tra loro in questo spazio ad alta dimensione.
Specifiche Chiave
Dimensioni: 1.536 (predefinito), può essere ridotto fino a un minimo di 256 utilizzando l’apprendimento della rappresentazione Matryoshka. Ridurre le dimensioni consente un risparmio di spazio e accelera la ricerca con una minima perdita di qualità.
Input massimo: 8.191 token (~6.000 parole). Abbastanza lungo per la maggior parte dei documenti e passaggi.
Prestazioni: Buone prestazioni su benchmark standard (MTEB). Non è il migliore in assoluto, ma è eccellente per la sua dimensione e costo.
Costo: $0.02 per milione di token. Estremamente economico: embeddare un milione di parole costa circa 3 centesimi.
text-embedding-3-small vs. text-embedding-3-large
OpenAI offre due modelli di embedding nella famiglia v3:
text-embedding-3-small: 1.536 dimensioni, $0.02/M token. Buone prestazioni, molto economico.
text-embedding-3-large: 3.072 dimensioni, $0.13/M token. Migliori prestazioni, 6.5 volte più costoso.
Per la maggior parte delle applicazioni, text-embedding-3-small è la scelta migliore. La differenza di qualità è piccola e i risparmi sui costi sono significativi. Usa text-embedding-3-large solo quando hai bisogno di massima accuratezza nel recupero e il costo non è un problema.
Casi d’Uso Comuni
Ricerca semantica. Converti documenti e query in embeddings, quindi trova i documenti più simili per qualsiasi query. Questo alimenta le funzioni di ricerca nelle applicazioni di intelligenza artificiale, nelle basi di conoscenza e nei siti di documentazione.
RAG (Generazione Aumentata da Recupero). Il caso d’uso più comune. Embeddare i tuoi documenti, memorizzarli in un database vettoriale e recuperare il contesto pertinente quando gli utenti pongono domande. Il contesto recuperato viene poi passato a un LLM per generare risposte accurate.
Classificazione. Usa gli embeddings come caratteristiche per la classificazione del testo. Gli embeddings catturano il significato semantico, rendendo la classificazione più accurata rispetto agli approcci basati su parole chiave.
Clustering. Raggruppa documenti simili in base ai loro embeddings. Utile per organizzare grandi collezioni di documenti, identificare argomenti e rilevare duplicati.
Raccomandazione. Trova articoli simili (prodotti, articoli, contenuti) in base alla similarità degli embeddings. Più sfumata rispetto al matching di parole chiave perché comprende relazioni semantiche.
Come Usarlo
Utilizzando l’API di OpenAI:
Chiama l’endpoint degli embeddings con il tuo testo e il nome del modello “text-embedding-3-small”. L’API restituisce un vettore che puoi memorizzare in un database vettoriale (Pinecone, Weaviate, ChromaDB, pgvector) o utilizzare direttamente per i calcoli di similarità.
Per la riduzione delle dimensioni, passa il parametro “dimensions” con la dimensione desiderata (es. 256, 512, 1024). Il modello utilizza l’apprendimento della rappresentazione Matryoshka per produrre vettori più brevi che mantengono la maggior parte delle informazioni semantiche.
Consigli per i Migliori Risultati
Dividi i tuoi documenti. Non embeddare documenti interi come vettori singoli. Dividerli in blocchi di 200-500 token per migliorare l’accuratezza del recupero.
Utilizza blocchi significativi. Dividi ai confini di paragrafi o sezioni piuttosto che in conteggi arbitrari di token. La coerenza semantica all’interno dei blocchi migliora la qualità del recupero.
Considera la riduzione delle dimensioni. Per applicazioni su larga scala, ridurre le dimensioni da 1.536 a 512 o 256 può ridurre significativamente i costi di archiviazione e accelerare la ricerca con una minima perdita di qualità.
Normalizza i vettori. Per la ricerca di similarità coseno, normalizza i tuoi vettori. La maggior parte dei database vettoriali gestisce questo automaticamente.
Alternative
Cohere Embed v3: Qualità competitiva, supporta bene più lingue.
Voyage AI: Ottime prestazioni, in particolare per codice e contenuti tecnici.
BGE (BAAI): Open-source, può essere eseguito localmente. Buona qualità per un’opzione gratuita.
Nomic Embed: Open-source con prestazioni competitive.
Il Mio Parere
text-embedding-3-small è la scelta predefinita per la maggior parte delle applicazioni di intelligenza artificiale. È economico, veloce, facile da usare e sufficientemente buono per la stragrande maggioranza dei casi d’uso. Inizia da qui e considera alternative solo se hai requisiti specifici (miglior supporto multilingue, distribuzione locale o massima accuratezza) che giustifichino il cambiamento.
🕒 Published: