Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!
Anthropic sucht neue Investoren und wirft die eigenen Prinzipien dafür über Bord, ein neues beeindruckendes Video-Modell von Runway, KI generiert jetzt ganze Welten und NotebookLM bekommt ein paar richtig coole Updates.
🤖 Mysteriöses Summit Model
In der Chatbot-Arena hat ein unbekanntes Modell mit dem Namen Summit letzte Woche für viel Aufregung gesorgt. Vor allem im Bereich Coding konnte dieses Modell, von dem viele vermuten, dass es von OpenAI kommt teilweise unglaubliche Ergebnisse generieren. Hier gibt es beispielsweise eine Animation, die der Professor Ethan Mollick erzeugt hat.
Dafür hat das Summit-Modell über 2000 Zeilen Code generiert. Zum Vergleich ist im Tweet auch das Ergebnis desselben Prompts mit dem GPT-4.1 Modell, das ja auch im Bereich Coding vorne mitmischt – ein Unterschied wie Tag und Nacht würde ich sagen. Über das Wochenende sind außerdem jede Menge weitere Modelle in der Arena aufgetaucht und viele haben jetzt ein bisschen die Befürchtung, dass mal wieder Benchmarks verfälscht werden könnten, wie es bei den 27 Versionen des Llama 4 Modells der Fall war, als diese ein nicht wahrheitsgetreues Ranking beim Launch von Meta erschummelt haben. Aber das nur als Randnotiz: Alle Zeichen deuten mittlerweile darauf hin, dass GPT-5 uns wirklich kurz bevorsteht, bei Microsoft und in Cursor sind teilweise schon Pre-Release Modelle aufgetaucht, also schauen wir mal, ob OpenAI mal wieder bis nach unserem Update wartet, um uns den Abend zu vermiesen.
📺 Video-Overviews in NotebookLM
NotebookLM hat einiges an Updates bekommen. Zunächst einmal wird aktuell eine komplett neue Nutzeroberfläche an alle User ausgerollt. Wir haben das bei uns aktuell auf einem Rechner bekommen, beim Rest ist es noch das alte Layout. Es ist aber nicht nur eine rein optische Änderung, denn mit dem neuen Layout kommen einige spannende neue Funktionen. Zum einen können jetzt in ein und demselben Notebook mehrere Audio Overviews, also diese KI-Podcasts, erstellt werden, unter anderem auch in mehreren verschiedenen Sprachen, wenn man das möchte. Außerdem kann man jetzt auch einzelne Quellen auswählen, um die Overviews zu erstellen, also als Inhalt wird nicht immer das komplette Notebook herangezogen, sondern nur die Infos, die wir explizit auswählen.
Und dann gibt es natürlich noch die große Nachricht: Audio war gestern, mit der neuen UI werden jetzt auch die Video Overviews verfügbar gemacht. Wir konnten das glücklicherweise schon testen und haben gute und schlechte Nachrichten. Die schlechte zuerst: Es wird jetzt nicht wirklich ein “Video” erstellt, wie man es sich vielleicht vorstellt, sondern eher ein Audio-Overview, das mit einer Slideshow visualisiert wird. Aber, und das ist die gute Nachricht: Das sieht schon wirklich gut aus. Die Folien sind alle super designt und bleiben auch über das ganze Video stimmig und konsistent. Die Videos sehen zwar optisch alle ziemlich gleich aus, aber es ermöglicht es doch hier ziemlich einfach eine schöne, visuell unterstützte Zusammenfassung eines Notebooks, oder einzelner Quellen, zu generieren.
Diese Funktion ist aktuell nur auf Englisch verfügbar. Wir gehen aber davon aus, dass andere Sprachen nicht all zu lang auf sich warten lassen werden. Wir sind auf jeden Fall gespannt, wie die Funktion noch weiterentwickelt und vielleicht in Zukunft auch mit Veo 3 kombiniert wird.
▶️ Runway Aleph
RunwayML hat ein neues Video-Modell vorgestellt, das sehr interessant aussieht. Runway Aleph heißt dieses “In-Context”-Modell wie es Runway selbst bezeichnet und es ist dazu gedacht, aus existierendem Video-Material neue Variationen zu schaffen. Das klingt erst einmal sehr abstrakt, daher gibt es hier ein paar Beispiele, da wird sehr schnell klar, was damit gemeint ist.
Das sieht schon richtig cool aus und auch laut den ersten User-Berichten, die wir so finden konnten, scheinen die Resultate wirklich zu überzeugen. Man kann dabei Charaktere austauschen, das Wetter verändern oder auch ungewünschte Teile aus einem Video entfernen – alles, ohne dabei den Rest des Videos zu verändern. Neben den coolen Videos, die wir beispielsweise mit Veo erstellen können, richtet sich Aleph dementsprechend vermutlich eher auch an ein semi-professionelles Publikum, die das Modell nutzen können, um bestehendes Videomaterial zu verändern oder zu verbessern.
📚 ChatGPT Study Mode
OpenAI hat mit dem Study Mode einen neuen Modus für ChatGPT vorgestellt, der sich gezielt an Schülerinnen und Schüler, sowie Studierende richtet, aber auch generell an alle, die etwas lernen wollen. Wir haben schon ein Video dazu auf unserem Kanal veröffentlicht, das natürlich in der Beschreibung verlinkt ist und die neue Funktion mal genau unter die Lupe nimmt.
Im Prinzip ist der Study Mode aktuell nur eine über den Systemprompt angepasste Version von GPT, also hinter der Schlagzeile hatten wir ehrlicherweise mehr erwartet. Die Ergebnisse sind im Chat zwar ganz nett, aber es ist eben genau das: Nur eine “normale” Unterhaltung mit ChatGPT, in der der Bot eben eine etwas angepasste Persönlichkeit hat, die eher an einen Tutor erinnert. Sogar die Quiz-Funktion stellt uns einfach nur Fragen in Textform. Vielleicht kommt da aber noch mehr, denn laut OpenAI ist das jetzt aktuell nur die erste Version des Study Mode – lassen wir uns überraschen.
👨🏻💻 Claude Code Limits
Eine etwas unterhaltsame Nachricht. Anthropic hat für den eigenen Max-Plan ja eine Nutzung von Claude Code integriert und jetzt in einem Statement auf Twitter bekanntgegeben, dass dafür bald Limits verhängt werden müssen, da einige User Claude im Terminal wirklich durchgehend 24/7 laufen lassen, um Aufgaben zu erledigen. Laut Anthropic hat ein einzelner User mit dem 200 Dollar Plan in einem Monat zehntausende Dollar an Rechenleistung beansprucht.
Ab dem 28. August sollen jetzt die neuen Limits greifen, genaue Infos dazu gibt es noch nicht und Anthropic will noch davor mit den eigenen Power Usern erörtern, wie man die Begrenzungen am Besten umsetzen wird, ohne zu sehr einzuschränken. Also schauen wir mal, was am Ende die Lösung sein wird.
💰 Neue Investments für Anthropic
Da Anthropic ja offensichtlich durch opportunistische Nutzer in finanzielle Schieflage gezwungen wird, sucht das Unternehmen nach neuen Investments. Laut aktuellen Informationen soll in einer neuen Finanzierungsrunde über 5 Milliarden Dollar neues Kapital in das Unternehmen kommen. Das würde aktuell einer Bewertung von 170 Milliarden Dollar entsprechen. Das ist erst einmal, außer dass es auch hier um unvorstellbare Summen geht, nichts Besonders, aber die Umstände und möglichen Investoren sind doch sehr interessant. Bei der letzten Runde im März hatte Anthropic nämlich Investoren aus dem Nahen Osten explizit ausgeschlossen, aufgrund von massiven Bedenken in Bezug auf die nationale Sicherheit.
In einem jetzt geleakten Memo von Anthropic Chef Dario Amodei scheint das jetzt kein Problem mehr zu sein, und um weiter vorne mitzuspielen sucht er jetzt auch Geld in beispielsweise Saudi Arabien. Völlig unabhängig davon, wie schwerwiegend das für irgendwelche Sicherheitsbedenken in den USA wirklich ist: Dieser komplette Schwenk in 5 Monaten mit der Begründung “Unfortunately, I think ‘No bad person should ever benefit from our success’ is a pretty difficult principle to run a business on” wirkt jetzt nicht so, als würde das Unternehmen wirklich hinter den eigenen Prinzipien stehen, sobald es ums Geld geht.
🔬 Kling Labs
Kling, die Plattform, die viele von ihrer guten Video- und Bilderzeugung kennen hat jetzt eine neue Art der Arbeit mit den eigenen Modellen als Beta vorgestellt: Kling Labs. Hier bekommen wir nicht das übliche Promptfeld und dann wird etwas erzeugt, sondern wir haben einen Canvas, auf dem man verschiedene Nodes und Befehle platzieren und kombinieren kann, um alles, was irgendwie kreativ mit KI erzeugt werden kann zu erstellen.
Aktuell kann man die Funktion nur mit einem bezahlten Plan wirklich verwenden, aber man kann auch ohne schon die verschiedenen Elemente mal anklicken und schauen, was hier so möglich sein wird. Vor allem im Creator-Bereich sehen wir hier definitiv Potenzial und glauben, dass sich mittelfristig definitiv mehr Plattformen in diese Richtung bewegen werden, weg vom starren “Chatbot”-Modell, das für kreative Arbeit ja wirklich auch nicht viel Sinn macht.
🌍 HunYuan World Model
Apropos kreative Arbeit. Hunyuan von Tencent hat ihr erstes sogenanntes World-Model vorgestellt und damit für viel Aufsehen gesorgt. Mit diesem Modell ist es möglich eben nicht nur ein Bild zu erstellen, sondern ganze Welten, beispielsweise für Videospiele. Die Beispiele sehen absolut beeindruckend aus und in der Theorie konnte man das sogar auf Huggingface direkt in einem Space verwenden, den wir auch in der Beschreibung verlinkt haben. Leider haben wir es noch nicht geschafft, das mit dem kostenlosen GPU-Kontingent, das man von Huggingface bekommt zu machen, denn das Welt-Modell braucht so viel Leistung, dass irgendwann immer abgebrochen wird. Aktuell ist der Space auch nicht online, aber vielleicht ändert sich das ja nochmal. Auf der Seite von Hunyuan selbst soll das Ausprobieren wohl auch möglich sein, da sind wir aber bis jetzt noch an der chinesischen Sprachbarriere gescheitert.
Wenn es funktioniert, erzeugt das Modell eben keine Bilder, sondern 3D-Modell-Dateien, die laut Tencent direkt in allen üblichen Render-Programmen verwendet werden können. Wenn das wirklich funktioniert, ist das sicher ein absoluter Gamechanger für Videospieldesigner oder andere Berufe, die viel mit 3D-Welten modellieren müssen, denn hier kann man ja dann in der eigenen Software einfach kleine Fehler ausbügeln und die Szene erweitern.
🇨🇳 Neue Chinesische KI-Modelle
Man bekommt hier oft gar nicht so viel davon mit, aber die Entwicklung der chinesischen KI-Modelle geht ungebremst weiter. Qwen hat gleich zwei neue Open Weight Modelle in unterschiedlichen Größen vorgestellt mit Qwen 3 einmal als 235B Variante und einmal als kleine 30B Variante. Beide Modelle konnten in unseren ersten Tests richtig punkten, vor allem das große 235B Modell kann mit einem riesigen Reasoning-Budget von über 80.000 Token auch sehr komplexe Anfragen souverän lösen. Gleichzeitig hat das Unternehmen z.ai die Modelle GLM 4.5 und 4.5 Air vorgestellt, ebenfalls in zwei Größen und in der Nutzung über die API sogar noch günstiger als die DeepSeek Modelle. Auch hier haben wir eine MIT-Lizenz also zumindest teilweise Open Source. Und auch über Kimi K2 haben wir noch gar nichts berichtet, aber auch dieses neue Open Weight Modell aus China kann in den Benchmarks komplett überzeugen.
Die Chinesen setzen also weiter konsequent auf Open Source und veröffentlichen beeindrucken starke Modelle, während sich die großen Tech-Konzerne aus der westlichen Welt gefühlt nach und nach komplett davon distanzieren und es lediglich als kleine PR-Stunts mit kleineren Modellversionen bedienen.
Ob das auf lange Sicht so gut geht? Da sind wir auf jeden Fall sehr gespannt.