Le paysage de l'IA évolue rapidement et nele.ai reste à la pointe du progrès.
Nous sommes heureux d'ajouter les tout nouveaux modèles de langage Claude 3 d'Anthropic - Opus, Sonnet et Haiku - à notre offre. Claude3 complète les modèles existants d'OpenAI, de Microsoft et d'autres fournisseurs, tels que Llama2, Mistral et Falcon, que nous utilisons pour le traitement sur des serveurs dédiés.
Les modèles Claude 3 d'Anthropic font partie des grands modèles vocaux les plus performants actuellement disponibles. Dans les tests de LMSYS Chatbot Arena, ils obtiennent des résultats légèrement à considérablement meilleurs que ChatGPT et d'autres modèles. En particulier, le modèle phare Claude 3 Opus, avec un volume de 200.000 tokens par chat, obtient la première place du classement Elo avec 1255 points.
Les points forts de Claude 3 sont la qualité des réponses, la compréhension des relations complexes et la capacité à fournir des outputs cohérents sur plusieurs itérations. L'accent mis par Anthropic sur la formation éthique et la sécurité se reflète dans les modèles.
Outre leurs performances impressionnantes, les modèles Claude 3 convainquent également par leur consommation extrêmement économique de ressources. Le modèle Haiku ne consomme qu'environ 2% de crédits par conversation par rapport à des modèles similaires. De plus, les modèles ont été entraînés avec des données d'entraînement jusqu'en août 2023 et sont donc très actuels.
Chez nele.ai, notre objectif est de toujours mettre à votre disposition les modèles d'IA les plus performants et les plus avancés. L'intégration de Claude 3 est une nouvelle étape importante, qui sera suivie par d'autres dans un avenir proche. Par exemple, nous vérifions déjà les modèles de Google issus du projet Gemini en termes de sécurité des données.
Testez vous-même les performances de Claude 3 directement dans votre environnement nele.ai. Nous sommes impatients de connaître vos réactions !
Voici encore une comparaison des modèles disponibles dans nele.ai selon le score Elo (la LMSYS Chatbot Arena est une plateforme ouverte créée par crowdsourcing pour l'évaluation des Large Language Models (LLMs) - plus de 500.000 évaluations humaines y ont été collectées pour classer les LLMs avec le système d'évaluation Elo, en date du 29.03.2024).
Classement par ordre décroissant du score le plus élevé au score le plus bas
Score Elo : 1255
Volume de jetons par chat : 200.000
Facteur de consommation de crédits : 1
Dates d'entraînement jusqu'au : Août 2023
Score Elo : 1252
Volume de jetons par chat : 128.000
Facteur de consommation de crédits : 0,5
Dates d'entraînement jusqu'au : avril 2023
Score Elo : 1252
Volume de jetons par chat : 128.000
Facteur de consommation de crédits : 0,5
Dates d'entraînement jusqu'au : avril 2023
Score Elo : 1200
Volume de jetons par chat : 200.000
Facteur de consommation de crédits : 0,2
Dates d'entraînement jusqu'au : Août 2023
Score Elo : 1185
Volume de jetons par chat : 8 192
Facteur de consommation de crédits : 1
Dates d'entraînement jusqu'au : septembre 2021
Score Elo : 1185
Volume de jetons par chat : 8.162
Facteur de consommation de crédits : 1
Dates d'entraînement jusqu'au : septembre 2021
Score Elo : 1185
Volume de jetons par chat : 32 768
Facteur de consommation de crédits : 2
Dates d'entraînement jusqu'au : septembre 2021
Score Elo : 1177
Volume de jetons par chat : 200.000
Facteur de consommation de crédits : 0,02
Dates d'entraînement jusqu'au : Août 2023
Score Elo : 1115
Volume de jetons par chat : 4.096
Facteur de consommation de crédits : 0,04
Dates d'entraînement jusqu'au : septembre 2021
Score Elo : 1115
Volume de jetons par chat : 4.096
Facteur de consommation de crédits : 0,04
Dates d'entraînement jusqu'au : septembre 2021
Score Elo : 1115
Volume de jetons par chat : 16 385
Facteur de consommation de crédits : 0,08
Dates d'entraînement jusqu'au : septembre 2021
L'évaluation complète de LMSYS Chatbot Arena est disponible sur ce site.