Vespa.ai annonce des gains de performance considérables par rapport à Elasticsearch dans un nouveau benchmark
- 33
Vespa.ai, développeur de la plateforme principale pour la création et le déploiement d'applications d'IA en temps réel à grande échelle, alimentées par le big data, a publié un nouveau rapport d'évaluation qui met en évidence ses performances, son évolutivité et son efficacité optimales vis-à-vis d'Elasticsearch. Cette étude complète et reproductible a testé les deux systèmes sur une application de recherche e-commerce utilisant une base de données de 1 million de produits, en évaluant les opérations d'écriture (ingestion et mises à jour de documents) et plusieurs stratégies de requêtes : correspondance lexicale, similarité vectorielle et approches hybrides.
Cette expérience a été partagée par Vinted.com — une plateforme majeure pour les articles de seconde main. Face à des coûts opérationnels croissants et à des besoins matériels élevés avec Elasticsearch, l'équipe d'ingénierie de Vinted a mené une évaluation distincte. Cherchant une solution tout-en-un pour la recherche vectorielle et traditionnelle, l'équipe d'ingénierie de Vinted a migré vers Vespa en 2023. Pour un aperçu plus détaillé de leur évaluation et migration, lisez l'article du blog de Vinted Engineering intitulé « Search Scaling Chapter 8: Goodbye Elasticsearch. Hello Vespa Search Engine. ».
Principales conclusions de l'étude comparative sur Vespa
-
Performances des différents types de requêtes
- Requêtes hybrides : Vespa a atteint un débit de cœur de CPU 8,5 fois supérieur à celui d'Elasticsearch
- Recherches vectorielles : Vespa a démontré un débit jusqu'à 12,9 fois plus élevé par cœur de CPU
- Recherches lexicales : Vespa a permis de multiplier par 6,5 le débit par cœur de CPU
-
Mises à jour
- Efficacité en régime permanent : Vespa est 4 fois plus efficace pour les mises à jour sur site, gérant les requêtes et les mises à jour plus efficacement après la phase initiale d'amorçage.
- Bootstrap : alors qu'Elasticsearch a fait preuve d'une grande efficacité dans la phase d'ingestion initiale (de 0 à 1 million de documents), Vespa s'est distinguée dans les opérations à long terme, en régime permanent.
-
Réduction des coûts d'infrastructure
- Grâce à un débit de requêtes plus élevé et à une utilisation plus optimale de l'unité centrale, Vespa peut réduire les coûts d'infrastructure jusqu'à 5 fois, comme l'indique la section 10 du rapport
Jon Bratseth, PDG et fondateur de Vespa. « Alors que les entreprises exigent des résultats de recherche toujours plus rapides et la capacité de gérer des mises à jour constantes, il est vital de choisir une solution qui fonctionne de manière fiable à grande échelle tout en restant dans une fourchette de prix abordable. Notre benchmark montre que Vespa n'excelle pas seulement en termes de vitesse de recherche pure, mais aussi en termes d'efficacité d'utilisation des ressources, ce qui se traduit directement par des économies mesurables sur les coûts d'infrastructure. »
À propos du Benchmark
Tous les types de requêtes de l'étude ont été configurés pour renvoyer des résultats équivalents, garantissant ainsi une comparaison équitable des performances. La taille de la base de données, les versions du système (Vespa 8.427.7 et Elasticsearch 8.15.2) et le cadre de mesure ont été méticuleusement documentés pour permettre une reproductibilité totale.
Téléchargez le rapport complet ici.
À propos de Vespa
Vespa.ai est une plateforme performante servant à développer des applications d'IA en temps réel basées sur la recherche. Une fois développées, ces applications sont déployées via l'architecture distribuée à grande échelle de Vespa, qui gère efficacement les données, l'inférence et la logique pour les applications gérant de grandes quantités de données et des taux élevés de requêtes simultanées. Vespa fournit tous les éléments constitutifs d'une application d'IA, notamment une base de données vectorielle, une recherche hybride, la génération augmentée par récupération (RAG), le traitement du langage naturel (NLP), l'apprentissage automatique, ainsi que la prise en charge des grands modèles de langage (LLM) et des modèles de langage visuel (VLM). Il est disponible en tant que service infogéré et en open source.
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Consultez la version source sur businesswire.com : https://www.businesswire.com/news/home/20250116387418/fr/
- LTIMindtree génère une croissance de chiffre d'affaires de 1,8% en glissement trimestriel et de 5,6% en glissement annuel en devises constantes
- Cognite est reconnu Leader des solutions de gestion des données industrielles
- Andersen Global ajoute une présence aux Fidji avec le cabinet Howards Lawyers
- NMG annonce son entrée à la Bourse de Toronto
- Velan Inc. publie des résultats robustes pour le troisième trimestre de son exercice 2025
- Aujourd'hui, la Doing Good Global Trading Day de Jefferies soutient les initiatives d'aide aux victimes du feu de forêt de Los Angeles