OpenAI Text Embedding 3 Large
Text Embedding 3 Large génère des embeddings textuels haute qualité pour la recherche, le clustering et les recommandations.
Qu'est-ce que Text Embedding 3 Large ?
Text Embedding 3 Large d’OpenAI encode le texte en vecteurs denses pour la recherche et l’analytique. Idéal pour les pipelines RAG, la recherche sémantique, les recommandations et la détection de sujets multilingues. Optimisé pour la qualité et la latence afin de s’adapter à de larges corpus.
Spécifications techniques
8 191 tokens
Vecteur de 3 072 dimensions
2024
Actif
Capacités
Scores de benchmark
Avantages et inconvénients
Avantages
- Excellente qualité de récupération
- Inférence rapide et vecteurs compacts
- Fonctionne en multilingue
Inconvénients
- Pas un modèle génératif
- Nécessite un bon découpage pour éviter la dérive
- La qualité dépend des réglages de l’index en aval
Fonctionnalités
Recherche sémantique
Encodez requêtes et documents dans le même espace vectoriel.
Multi‑tâches
Un seul embedding pour la recherche, les recommandations et le clustering.
Scalable
Faible latence et vecteurs compacts pour de grands corpus.
Cas d'usage
Indexation RAG
Embeddings de bases de connaissances pour une génération augmentée par récupération précise.
Recommandations
Clusterisez des éléments similaires et affichez le contenu pertinent.
Analytique
Détectez sujets, intentions et anomalies dans les flux textuels.