Veni AI

OpenAI Text Embedding 3 Large

Text Embedding 3 Large génère des embeddings textuels haute qualité pour la recherche, le clustering et les recommandations.

Essayer maintenant
SCROLL
01

Qu'est-ce que Text Embedding 3 Large ?

Text Embedding 3 Large d’OpenAI encode le texte en vecteurs denses pour la recherche et l’analytique. Idéal pour les pipelines RAG, la recherche sémantique, les recommandations et la détection de sujets multilingues. Optimisé pour la qualité et la latence afin de s’adapter à de larges corpus.

02

Spécifications techniques

Fenître de contexte

8 191 tokens

Sortie max

Vecteur de 3 072 dimensions

Limite d'entraînement

2024

Actif

Actif

03

Capacités

Embeddings textuels haute qualité pour la recherche et le clustering
Gère les entrées multilingues
Optimisé pour une latence minimale en recherche sémantique
04

Scores de benchmark

MTEB Average
64,6%
Dimension
3072
Max Input
8191
Accuracy vs Ada-002
+30%
Languages
100+
Cost Efficiency
95%
05

Avantages et inconvénients

Avantages

  • Excellente qualité de récupération
  • Inférence rapide et vecteurs compacts
  • Fonctionne en multilingue

Inconvénients

  • Pas un modèle génératif
  • Nécessite un bon découpage pour éviter la dérive
  • La qualité dépend des réglages de l’index en aval
06

Fonctionnalités

01

Recherche sémantique

Encodez requêtes et documents dans le même espace vectoriel.

02

Multi‑tâches

Un seul embedding pour la recherche, les recommandations et le clustering.

03

Scalable

Faible latence et vecteurs compacts pour de grands corpus.

07

Cas d'usage

01

Indexation RAG

Embeddings de bases de connaissances pour une génération augmentée par récupération précise.

02

Recommandations

Clusterisez des éléments similaires et affichez le contenu pertinent.

03

Analytique

Détectez sujets, intentions et anomalies dans les flux textuels.

09

FAQ

10

Modèles associés