Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!
Meta bringt Open Source KI mit dem neuen 405B Modell endgültig in die Champions League und macht OpenAI, Anthropic und Google Konkurrenz. OpenAI verschenkt dafür die Möglichkeit Modelle selbst feinabzustimmen, Mistral legt mit einer neuen Top-KI nach und die Geschwindigkeit der Entwicklung von Video KIs geht ungebremst weiter.
Wie immer haben wir die wichtigsten Nachrichten aus der Welt der Künstlichen Intelligenz für Euch zusammengefasst.
🛠️ OpenAI verschenkt Finetuning
Relativ unbemerkt hat der Developer Account von OpenAI verkündet, dass das Unternehmen bis zum 23. September kostenloses Finetuning von Modellen ermöglicht.
Customize GPT-4o mini for your application with fine-tuning. Available today to tier 4 and 5 users, we plan to gradually expand access to all tiers. First 2M training tokens a day are free, through Sept 23.https://t.co/uHeVKFgRlr pic.twitter.com/ZAzBF6fL5Z
— OpenAI Developers (@OpenAIDevs) July 23, 2024
In diesem Zug wurde auch das neue Mini-Modell für das Finetuning freigeschalten, aktuell nur für eine begrenzte Zahl von Usern, es sollen aber bald mehr folgen. Da unsere OpenAI Accounts schon sehr alt sind, haben wir es glücklicherweise in die Testgruppe geschafft und können die Möglichkeit nutzen.
🦙 Llama 405B und 3.1 Versionen der kleinen Modelle
Wir haben ja im Prinzip schon gewusst, dass am Dienstag das neue 405B Modell und damit die größte und beste Variante von Llama 3 kommen würde – wurden aber dann doch ein bisschen überrascht. Denn Meta hat nicht nur das große Top-Modell präsentiert, sondern die gesamte Llama 3 Familie auf die Version 3.1 aktualisiert und bevor wir über die Fähigkeiten der 405B Variante sprechen, wollen wir kurz noch darauf hinweisen, wie viel besser damit auch die kleinen 8 und 70B Modell geworden sind.
Vor allem das kleine und damit eben auch sehr schnelle und flexibel einsetzbare 8B-Modell hat mit der neuen Version in den Benchmarks einen gigantischen Sprung gemacht, das sieht man hier deutlich! Nach dem GPT-4o Mini Modell, dem kleineren Nemo-Modell von Mistral scheint auch Meta den Trend mitzugehen und wir begrüßen das sehr. Das sind nämlich – vor allem im Open Source Bereich einfach die Modelle, die wir alle offline, kostenlos und privat verwenden können. Zum ganzen Open Source Gedanken aber gleich noch mehr. Jetzt geht es um den sprichwörtlichen Elefanten im Raum.
🏆 Das beste Open Source KI-Modell aller Zeiten ist da
Llama 3.1 405B scheint laut den Benchmarks und jetzt auch den ersten Tests von Usern wirklich abgeliefert zu haben. Das neue Modell kann in einer Liga mit den neuesten Modellen von OpenAI, Anthropic und Google mitspielen, die alle kommerziell und nicht Open Source sind und damit hat Meta einen echten Meilenstein erreicht. Aktuell ist das neue Modell noch nicht multimodal, wann das kommen wir müssen wir schauen, aber das bedeutet in positiven News für uns, dass man 405B aktuell auch in der EU verwenden kann. Es ist natürlich nicht ganz leicht: Es gibt kein offizielles Angebot, da wir Meta.ai hier nicht verwenden können, aber man kann mit etwas Glück auf Huggingface einen Space finden, der aktuell nicht ausgelastet ist oder das Modell in der Chatbot Arena verwenden.
Kurz noch zu den Eckdaten: Das neue Modell hat einen 128.000 Token Kontext – übrigens auch in den 8 und 70B Varianten – und bietet damit viel Raum für ausführliche Prompts und die Arbeit mit großen Datenmengen. Für den Einsatz in größeren Stil, z.B. in Unternehmen steht die neue Modellreihe bei eigentlich allen wichtigen Partnern wie AWS, Microsoft, Google oder Groq bereit. Es wurden außerdem neue Sicherheitsmechanismen geschaffen, die mögliche Probleme durch Prompt Injection oder Jailbreaks verhindern sollen.
Die Lizenz für die Llama Modelle wurde ebenfalls aktualisiert. Wir werden jetzt nicht alle Details besprechen, da sich das auch oft ändern kann, aber generell haben wir hier eine anständige Lizenz für die gebührenfreie Nutzung der Modelle. Ab 700 Millionen monatlich aktiven Nutzern muss eine spezielle Lizenz von Meta angefragt werden – das ist aber denke ich für die wenigsten von uns relevant.
🔓 Open Source KI ist die Zukunft
In einem absolut lesenswerten Beitrag hat Mark Zuckerberg seine Vision, und damit wohl auch die Vision von Meta, für die Zukunft von künstlicher Intelligenz vorgestellt und er sieht diese im Bereich Open Source. Mit dem neuen Modell, wenn es denn die hohen Erwartungen nach den Benchmarks und ersten Tests erfüllen kann, haben wir jetzt zum ersten Mal ein Open Source Modell, das nicht nur so ein bisschen mithält, sondern wirklich auf dem Niveau der besten kommerziellen KIs wie GPT und Claude ist.
Man muss ehrlich dazu sagen: Mark Zuckerberg und Meta sind hier in einer ziemlich einzigartigen Situation, denn es gibt wahrscheinlich kaum andere Unternehmen, die es sich finanziell überhaupt leisten könnten, so gute KI-Modelle einfach zu verschenken. Gleichzeitig hat Facebook in der Vergangenheit laut Zuckerberg gute Erfahrungen damit gemacht Technologie frei verfügbar zu machen, denn so haben sich auch Industriestandards um diese eigene Technologie gebildet, die auf lange Sicht ein Vorteil für das Unternehmen waren. Solange wir alle wie jetzt bei Llama davon profitieren, begrüßen wir das auf jeden Fall!
🟧 Mistral Large 2
Neben Meta hat auch Mistral ein neues Top-Modell mit dem Namen Large 2 vorgestellt. Auch hier sehen die ersten Benchmarks überzeugend aus und das Unternehmen hat wohl speziell im Bereich Coding und Mathematik deutliche Fortschritte gemacht, bedingt durch kleinere, spezialisierte Modell in diesen Bereichen, über die wir letzte Woche berichtet haben.
Das neue Large 2 Modell können wir übrigens problemlos kostenlos verwenden über den Le Chat der Mistral Website. Wir haben bereits einige Tests gemacht und müssen sagen: Mistral kann hier – auf den ersten Blick wohlgemerkt – durchaus mit den aktuell führenden Modellen mithalten.
Im gleichen Zug hat das Unternehmen übrigens viele der älteren Modelle wie Mistral 7B, Mixtral 8x7B and 8x22B, Codestral Mamba und Mathstral von der eigenen Plattform entfernt. Für die eigene Verwendung sollen sie wohl weiter verfügbar sein, aber das Unternehmen konzentriert sich für die eigene API und Le Chat jetzt auf Large 2, Codestral und Nemo.
⚔️ Sind die Benchmarks der Chatbot-Arena noch relevant?
Die Chatbot Arena von LMSYS war ja in der Vergangenheit auch immer ein Benchmark, das wir sehr gerne herangezogen haben, da hier einfach echte Menschen die Leistung der verschiedenen KI-Modelle vergleichen konnten und so eine vermeintlich objektive und ehrliche Bewertung abgeben, die dann das Leaderboard bildet.
Dieses Leaderboard wird aber aktuell zunehmend in Frage gestellt und das aus vermutlich guten Gründen. Spätestens seit der Platzierung des neuen GPT-4o Mini Modells auf einem geteilten ersten Platz mit seinem großen Counterpart und der Einordnung vor Modellen wie Claude 3.5 Sonnet und den Gemini Pro Modellen wurde viel darüber diskutiert, wie das sein kann. Während das Mini-Modell zwar gut ist, sind Praxisanwender doch davon überzeugt, dass diese Einstufung deutlich zu hoch ist.
Zwei Faktoren spielen hier eine Rolle: Zunächst werden in der Chatbot Arena oft einfache Prompts verwendet, und da sind die Unterschiede zwischen einem guten und sehr guten Modell oft eben gar nicht riesig.
Das wurde ein bisschen durch die Hard Prompts Kategorie abgewendet, aber der zweite Nachteil der Arena ist noch viel schlimmer: Die Prompts sind hier auf 2.000 Tokens beschränkt. Eigentlich alle neuen Top-Modelle haben Kontextfenster von 100.000 bis 2 Millionen Tokens, die für extrem umfangreiche Daten und ausführliche Prompts reichen. Diese immense Leistung kann in der Arena überhaupt nicht abgebildet werden und das führt dazu, dass der Vergleich mittlerweile leider oft hinkt.
Mögliche Alternativen sind aktuell:
📹 Kling AI jetzt für alle verfügbar dank englischer Website
Nachdem es von OpenAIs Sora immer noch nichts weiter gibt als ein paar Demovideos macht der chinesische Anbieter Kling jetzt den Schritt auf die globale Bühne. Ab sofort kann man sich unter klingai.com einen kostenlosen Account erstellen und Videos erstellen, die wirklich sehr gut aussehen.
Man bekommt aktuell einige kostenlose Credits, die sogenannten Inspiration Credits, die immer neu verfügbar sind, wenn man sich an einem Tag einloggt. Alte Credits verfallen aber auch täglich. Trotzdem kann man so schon einiges ausprobieren und die ersten Ergebnisse sind wirklich gut.
📽️ Loops von Luma
Wenn wir gerade bei Video-KIs sind machen wir direkt mit News von Luma weiter. Hier wurde ein neues Feature vorgestellt, mit dem man Videos als Loop generieren kann. Das bedeutet, das Video kann in einer Dauerschleife laufen und man merkt keine Übergänge bei der Wiederholung.
2. Looping made easy: simply check a box to create a loop from any text instruction, image, keyframes, or to extend a previous generation into loop.
— Luma AI (@LumaLabsAI) July 22, 2024
🔄 “spaceship flying in hyperspace portal” pic.twitter.com/5sshayERNv
Klingt erst einmal unspektakulär, aber ist mal wieder ein kleiner technischer Fortschritt und das Tempo beim Thema Video und KI wird aktuell offensichtlich nicht langsamer.
✏️ Adobe stellt Generative Fill mit Vektoren vor
Auch Adobe hat mal wieder was neues parat und das ist die Möglichkeit in Illustrator einfach auf Grundlage einer simplen Form Vektorgrafiken erzeugen zu lassen. Dazu wird die Generative Fill Funktion verwendet und im Vergleich zu einer einfachen Bilderzeugung schafft es die Software hier Grafiken zu erstellen, die komplett bearbeitbar sind und im Vektorformat, das bedeutet im Prinzip unendlich skalierbar.
Brand New in #Illustrator! You draw the shapes and let Gen Shape Fill (beta) give you vector fill options. #communityxadobe pic.twitter.com/7cXkSp4RpT
— Paul Trani 🇺🇸🏳️🌈🇺🇦 (@paultrani) July 23, 2024
Eine auf den ersten Blick unscheinbare Neuerung, die aber für viele Kreativschaffende ein echter Gamechanger sein dürfte und mal wieder ein sehr beeindruckender Fortschritt. Schön ist auch, dass sich Adobe wieder dazu entschieden hat – ähnlich wie bei vergangenen KI-Features – das Ganze direkt in die bestehende Software zu integrieren und so den Zugang für viele User direkt zu ermöglichen.