Die KI-Landschaft entwickelt sich rasant weiter und nele.ai bleibt am Puls der Zeit.
Wir freuen uns, die brandneuen Claude 3 Sprachmodelle von Anthropic - Opus, Sonnet und Haiku - in unser Angebot aufzunehmen. Claude3 ergänzt die bestehenden Modelle von OpenAI, Microsoft und anderen Anbietern, wie z.B. Llama2, Mistral und Falcon, die wir für die Verarbeitung auf dezidierten Servern verwenden.
Die Claude 3-Modelle von Anthropic gehören zu den leistungsstärksten aktuell erhältlichen großen Sprachmodellen. In Tests der LMSYS Chatbot Arena schneiden sie gegenüber ChatGPT und anderen Modellen leicht bis erheblich besser ab. Insbesondere das Flaggschiff-Modell Claude 3 Opus mit 200.000 Token Volumen pro Chat erzielt den Spitzenplatz der Elo-Wertung mit 1255 Punkten.
Die Stärken von Claude 3 liegen in der Qualität der Antworten, dem Verständnis komplexer Zusammenhänge und der Fähigkeit, konsistente Outputs über mehrere Iterationen zu liefern. Anthropics Fokus auf ethisches Training und Sicherheit spiegelt sich in den Modellen wider.
Neben der beeindruckenden Leistung überzeugen die Claude 3-Modelle auch durch einen äußerst sparsamen Ressourcenverbrauch. Das Haiku-Modell verbraucht im Vergleich zu ähnlichen Modellen nur ca. 2% der Credits pro Konversation. Die Modelle wurden zudem mit Trainingsdaten bis August 2023 trainiert und sind damit sehr aktuell.
Unser Ziel bei nele.ai ist es, Ihnen stets die leistungsfähigsten und fortschrittlichsten KI-Modelle zur Verfügung zu stellen. Die Integration von Claude 3 ist ein weiterer wichtiger Schritt, dem in naher Zukunft weitere folgen werden. So prüfen wir z.B. bereits Googles Modelle aus dem Gemini-Projekt auf Datensicherheit hin.
Testen Sie selbst die Leistungsfähigkeit von Claude 3 direkt in Ihrer nele.ai-Umgebung. Wir sind gespannt auf Ihr Feedback!
Hier noch eine Gegenüberstellung der in nele.ai verfügbaren Modelle nach dem Elo-Score (die LMSYS Chatbot Arena ist eine durch Crowdsourcing entstandene offene Plattform zur Bewertung von Large Language Models (LLMs) - hier wurden über 500.000 menschliche Bewertungen gesammelt, um LLMs mit dem Elo-Bewertungssystem zu rangieren, Stand: 29.03.2024).
Anordnung absteigend von höchstem bis niedrigstem Score
Elo-Score: 1255
Tokenvolumen pro Chat: 200.000
Creditverbrauchsfaktor: 1
Trainingsdaten bis: August 2023
Elo-Score: 1252
Tokenvolumen pro Chat: 128.000
Creditverbrauchsfaktor: 0,5
Trainingsdaten bis: April 2023
Elo-Score: 1252
Tokenvolumen pro Chat: 128.000
Creditverbrauchsfaktor: 0,5
Trainingsdaten bis: April 2023
Elo-Score: 1200
Tokenvolumen pro Chat: 200.000
Creditverbrauchsfaktor: 0,2
Trainingsdaten bis: August 2023
Elo-Score: 1185
Tokenvolumen pro Chat: 8.192
Creditverbrauchsfaktor: 1
Trainingsdaten bis: September 2021
Elo-Score: 1185
Tokenvolumen pro Chat: 8.162
Creditverbrauchsfaktor: 1
Trainingsdaten bis: September 2021
Elo-Score: 1185
Tokenvolumen pro Chat: 32.768
Creditverbrauchsfaktor: 2
Trainingsdaten bis: September 2021
Elo-Score: 1177
Tokenvolumen pro Chat: 200.000
Creditverbrauchsfaktor: 0,02
Trainingsdaten bis: August 2023
Elo-Score: 1115
Tokenvolumen pro Chat: 4.096
Creditverbrauchsfaktor: 0,04
Trainingsdaten bis: September 2021
Elo-Score: 1115
Tokenvolumen pro Chat: 4.096
Creditverbrauchsfaktor: 0,04
Trainingsdaten bis: September 2021
Elo-Score: 1115
Tokenvolumen pro Chat: 16.385
Creditverbrauchsfaktor: 0,08
Trainingsdaten bis: September 2021
Die gesamte Auswertung der LMSYS Chatbot Arena finden Sie auf dieser Webseite.