23 outils
Arena (anciennement LMArena) est une plateforme communautaire de benchmarking et de comparaison de modèles d'IA. Grâce à des duels anonymes, des votes d'utilisateurs et un système de classement ELO, elle aide à évaluer et comparer les performances réelles de modèles de pointe (GPT, Claude, Gemini, etc.) sur des tâches texte, image, code et autres.
Outlier AI est une plateforme de travail à distance qui relie des experts du monde entier et des entreprises d’IA pour entraîner des modèles d’IA via des tâches telles que l’annotation de données et l’évaluation de modèles, permettant aux professionnels de tirer des revenus flexibles grâce à leur expertise.

ChatHub AI est une plateforme qui agrège plusieurs grands modèles de langage de premier plan, permettant aux utilisateurs de comparer côte à côte les réponses de différents modèles depuis une même interface, afin d'accélérer la prise de décision, vérifier les informations et réduire le risque d'hallucinations générées par un seul modèle.

Arena AI propose deux volets complémentaires : d’une part une plateforme d’évaluation et de routage de modèles IA qui, via des tests communautaires et un routage intelligent, aide à évaluer et choisir les modèles adaptés ; d’autre part un outil communautaire piloté par l’IA pour créer et gérer des communautés interactives en temps réel sur votre site, afin d’augmenter l’engagement et les conversions.

Arize AI est une plateforme d'observabilité et d’évaluation du cycle de vie pour les grands modèles de langage et les agents. Elle aide les équipes d'ingénierie IA à surveiller, évaluer et optimiser les performances des modèles afin d'assurer la fiabilité des applications et l'impact sur le business.

Evidently AI est une plateforme open source dédiée à l’évaluation, aux tests et à la surveillance des modèles d'apprentissage automatique et des grands modèles de langage, aidant les scientifiques des données et les ingénieurs à garantir la qualité et la fiabilité des systèmes d'IA en production.
Confident AI est une plateforme dédiée à l'évaluation et à l'observabilité des grands modèles de langage, aidant les équipes d'ingénierie et produit à tester, surveiller et optimiser de manière systématique les performances et la fiabilité de leurs applications IA.
Ragas est un cadre open source pour l’évaluation automatisée, la surveillance et l’amélioration des performances des systèmes de génération augmentée par récupération (RAG). Il aide les développeurs à obtenir des évaluations systématiques, reproductibles et extensibles.
Nexa AI est une plateforme spécialisée dans le déploiement et l'optimisation de modèles d'IA côté périphérique, offrant une bibliothèque de modèles et des outils de développement optimisés pour les appareils locaux. Sa valeur centrale est d'aider les développeurs et les entreprises à exécuter efficacement des modèles d'IA sur les dispositifs, en prenant en charge l'inférence hors ligne et en se concentrant sur la confidentialité des données.

Future AGI est une plateforme d'observabilité et d'optimisation des évaluations destinée aux entreprises, axée sur l'amélioration de l'exactitude, de la fiabilité et des performances des applications IA, notamment des agents intelligents. Cette plateforme réunit les fonctions de construction, d'évaluation, d'optimisation et d'observabilité, afin d'accélérer le cycle de développement et de déploiement des applications IA de haute précision grâce à des outils d'automatisation.
Transluce est un ensemble d’outils open-source dédié à l’amélioration de l’explicabilité et de la sécurité des systèmes d’IA, aidant chercheurs et développeurs à comprendre, déboguer et surveiller les comportements internes des modèles IA, afin de promouvoir le développement d’une IA responsable.
Humanloop est une plateforme de développement IA d’entreprise, axée sur l’offre d’une suite complète pour construire, évaluer, optimiser et déployer des applications basées sur des modèles de langage de grande taille (LLM). En intégrant l’ingénierie des prompts, l’évaluation des modèles et les capacités d’observabilité, elle aide les équipes de développement à améliorer la fiabilité et les performances de leurs applications IA, tout en facilitant la collaboration interfonctionnelle et le déploiement en sécurité.

phospho AI est une plateforme d’analyse de texte open-source conçue pour les applications basées sur de grands modèles de langage (LLM). Elle peut analyser automatiquement les échanges textuels entre l’utilisateur et l’application IA, extraire les événements clés et les intentions des utilisateurs, et offrir des outils de visualisation des données pour aider les développeurs à optimiser l’expérience de dialogue et les performances du modèle.
Alle-AI est une plateforme d'agrégation IA tout-en-un qui intègre plusieurs modèles d'IA majeurs. Elle permet aux utilisateurs d'appeler, de comparer et de fusionner les sorties de différents modèles en parallèle, afin d'améliorer l'efficacité créative et la fiabilité des résultats.

Enigma AI est un ensemble d'applications et de travaux de recherche en intelligence artificielle couvrant notamment les systèmes de génération de décisions, le benchmark EnigmaEval pour l'évaluation des grands modèles de langage, des modèles de décodage d'électroencéphalogrammes (EEG) et des applications de chat intelligentes. Il propose aux utilisateurs de différents secteurs une palette d'outils et de solutions IA, de la création de contenu et de l'écriture de code jusqu'à l'évaluation avancée du raisonnement et à la recherche en neurosciences.
Captum est une bibliothèque open-source d’explicabilité des modèles basée sur PyTorch, destinée à aider les développeurs à comprendre la logique de prédiction et l’apport des caractéristiques des modèles de réseaux neuronaux, utile pour le débogage de modèles, la recherche d’algorithmes et l’optimisation des performances.

Thisorthis.ai est une plateforme de comparaison de modèles d'IA qui, grâce à des tests en parallèle et à une analyse multidimensionnelle, aide les utilisateurs à évaluer efficacement et à choisir le modèle d'IA générative le plus adapté à leurs besoins.

Atla AI est une plateforme d'évaluation et d'amélioration automatisée conçue pour les agents IA, grâce à des outils d'analyse, de surveillance et d'optimisation systématiques, qui aide les développeurs à améliorer les performances, la fiabilité et l'efficacité du développement des agents.

OverallGPT Compare AI est une plateforme de comparaison des performances de grands modèles d'IA. Elle permet de visualiser côte à côte les réponses de différents modèles à une même requête. La plateforme aide les utilisateurs, les développeurs et les décisionnaires techniques à évaluer et choisir le modèle d'IA le mieux adapté à leurs besoins spécifiques grâce à des comparaisons intuitives.

Langtrace AI est une plateforme open source d'observabilité et d'évaluation, aidant les développeurs à surveiller, déboguer et optimiser les applications basées sur de grands modèles de langage, afin de transformer les prototypes d'IA en produits d'entreprise fiables.
category.paginationSummary