Die KI-News der Woche vom 27.03.2025

Die KI-News der Woche vom 27.03.2025

Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!

Google schnappt sich wieder den ersten Platz in der KI-Rangliste, GPT bekommt endlich ein Upgrade, auf das wir schon seit über 18 Monaten warten und auch DeepSeek lässt im KI-Rennen nicht locker und liefert ein beeindruckendes Update.  

🆕 Updates für Gemini

Der Gemini-Chatbot von Google hat mehrere Updates bekommen. Die größte Neuerung in der Nutzung ist sicherlich die Canvas-Funktion, die wir ja schon von Claude, ChatGPT und auch dem Le Chat von Mistral kennen gibt es jetzt auch bei Google, sodass man noch besser mit Code und Dokumenten im Chat arbeiten kann. 

In unseren ersten Versuchen war dieser Canvas sehr gut. Zum einen ist er in Kombination mit dem Flash Modell wirklich teilweise unglaublich schnell und auch die Ergebnisse können sich wirklich sehen lassen. Hier seht ihr zum Beispiel ein Tetris-Spiel, das aus einem ganz einfachen Prompt auf den ersten Versuch erstellt wurde. Wir haben ein Menü, eine Anleitung, wirklich cooles Aussehen und sogar Sounds mit eingebaut – echt beeindruckend. Dafür wurden in kürzester Zeit über 600 Zeilen Code geschrieben. 

Ich habe Euch das fertige Spiel mal hier verlinkt, wer Lust auf eine kurze Runde Tetris hat, probiert es einfach mal aus. 

🤖 Gemini 2.5 Pro Experimental

Für noch mehr Aufregung hat die Veröffentlichung eines neues Google Modells gesorgt. Obwohl selbst Gemini 2.0 Pro immer noch eigentlich den Status eines “Experiments” hat – was das auch immer heißen soll – wurde schon der “Nachfolger” mit Gemini 2.5 Pro Experimental vorgestellt. Dieses neue Modell hat auch in der Chatbot Arena direkt richtig eingeschlagen und konnte sich über alle Kategorien den ersten Platz sichern. Besonders beeindruckend: Der 40 Punkte Sprung im Vergleich zu den bisherigen Top-Modellen Grok 3 und GPT-4.5. 

Und das neue Modell liefert auch in der Praxis ab. Es handelt sich dabei um ein Reasoning-Modell mit extrem großem Kontext, sowohl für den Input mit einer Million Tokens als auch beim Output der bis zu 65.000 Token lang sein kann – ein echtes Alleinstellungsmerkmal, das sehr lange Antworten der KI ermöglicht. Vor allem im Bereich Coding sind die ersten Testerinnen und Tester sehr positiv überrascht von Gemini 2.5 Pro und auch wir testen es natürlich aktuell auf Herz und Nieren. 

Ausprobieren kann das neue Top-Modell übrigens jeder mit einem kostenlosen Google Account im AI Studio unter aistudio.google.com. Dort einfach nur das neue Modell auswählen und schon hat man aktuell 50 Anfragen pro Tag gratis zum Verwenden. Das AI Studio haben wir übrigens auch diese Woche schon vorgestellt und damit sind noch viele weitere coole Sachen möglich – komplett ohne Premium-Abo.

Das Video findet ihr hier verlinkt.

⚡ DeepSeek V3 Update

Aber nicht nur die großen Konzerne haben nachgelegt, auch im Open Source Bereich tut sich etwas. DeepSeek hat ziemlich unerwartet eine neue Version des eigenen V3-Modells vorgestellt und auch dieses Modell konnte in seinem Bereich komplett überzeugen. Zur Erinnerung: V3 ist die “Nicht-Reasoning-Variante“ des R1-Modells von DeepSeek, das vor einigen Wochen ja komplett durch die Decke ging und alle westlichen KI-Unternehmen komplett geschockt hat.

Die neue Version von V3 ist jetzt tatsächlich wohl, wenn man Reasoning-Modelle außen vor lässt, das beste KI-Modell auf dem Markt aktuell und steht im DeepSeek Chatbot und bei vielen anderen Anbietern, die DeepSeek Modelle anbieten jetzt allen zur Verfügung. Also auch hier eine absolute Empfehlung, das mal selbst hier zu testen.

🗣️ Sesame macht KI-Stimmen Open Source

Nachdem wir euch in einem anderen Update die KI-Stimme Sesame vorgestellt hatten, waren viele von Euch ja sehr beeindruckt von den Fähigkeiten und davon wie echt die Unterhaltung hier oft klingt. Und da gibt es jetzt schon ein richtig cooles Update. Leider haben Maya und Miles immer noch nicht wirklich Deutsch gelernt, aber das zugrundeliegende Modell mit dem Namen CSM 1B wurde jetzt als Open-Source-Projekt auf Huggingface veröffentlicht. Das bedeutet im Prinzip können alle dieses Modell nutzen, um eigene Sprach-KIs zu entwickeln, mit den sehr guten Fähigkeiten von Sesame. 

Man muss ehrlich dazu sagen: Viele User waren etwas enttäuscht, denn die für Maya und Miles verwendete Version hat wohl noch einiges an Finetuning bekommen, aber trotzdem ist dieser Schritt in Richtung Open Source zu begrüßen und bringt auch im Bereich Sprache mal wieder richtig Bewegung rein, denn die großen Anbieter müssen dann schon darum kämpfen und richtig Qualität abliefern, wenn sie ihre geschlossenen Modelle weiter am Markt halten wollen. 

📻 OpenAI FM

Auch OpenAI hat aber im Bereich Voice neue Entwicklungen vorgestellt. Da sich der Konzern ja aktuell sehr stark mit dem Thema Agents beschäftigt soll jetzt auch die Möglichkeit geschaffen werden eben nicht nur mit Text zu arbeiten, sondern Sprachassistenten sollen mehr in den Fokus rücken. Das macht ja beispielsweise ElevenLabs schon sehr gut mit ihren Conversational Agents und OpenAI will hier jetzt anscheinend mitspielen. Dabei konzentriert man sich aktuell im Gegensatz zum Ansatz von ElevenLabs, die ja stark auf Realtime und möglichst geringe Latenzen setzen auf den Ablauf gesprochenen Input zunächst einmal zu transkribieren und dann durch die starken Textmodelle eine passende Antwort zu generieren, die wiederrum in Sprache umgewandelt wird. 

Dafür wurde eine neue Generation der Speech to Text Modelle vorgestellt, die deutlich weniger fehleranfällig sein soll also das bisher verwendete Whisper Modell. Damit soll der erste Schritt dann erledigt werden, also die Sprache eines Users wird in Text umgewandelt und dann kann zum Beispiel ein GPT-4o Modell diese Anfrage verarbeiten. Der letzte Schritt ist es dann natürlich den Output des Text-Modells wieder in Sprache zu verwandeln und auch dafür gibt es ein neues Modell mit dem Namen gpt-4o-mini TTS. Dieses Modell kann man übrigens selbst ausprobieren auf der Website openai.fm. Das ist nur eine Demo von OpenAI selbst aber hier kann man einfach Texte von dem neuen Modell in Sprache umwandeln lassen und einen Überblick über die Qualität bekommen. Probiert es gerne mal aus, der Link ist in der Beschreibung – wir müssen ehrlich sagen, uns hat es nicht zu 100% überzeugen können vor allem im Vergleich zu beispielsweise ElevenLabs. 

🖌️ ChatGPT mit Update für Bilderstellung

OpenAI hat endlich ein neues Bild-Modell vorgestellt, nachdem das letzte Update für Dall-E ja schon über ein Jahr her war. Dabei ist es eigentlich gar kein grundlegened neues Modell, sondern es wurde jetzt eine native Bilderzeugung in das GPT-4o Modell integriert, die viele Vorteile bietet, wie die leichtere Bearbeitung von Bildern ohne dass jedes Mal etwas komplett neues generiert wird. Außerdem ist das neue Modell super darin auch mit Text auf Bildern zu arbeiten und bietet jede Menge spannende Anwendungsfälle. 

Es gibt übrigens noch eine gute Nachricht, die wir sonst bei Neuerungen von OpenAI oft nicht haben: Das neue Modell ist theoretisch für alle User, auch im kostenlosen Plan verfügbar und auch bei uns in der EU. Allerdings hat Sam Altman im Nachhinein jetzt bekanntgegeben, dass aufgrund der sehr starken Resonanz das Feature für den Gratisplan doch nicht sofort verfügbar sein wird – das wird dann wohl erst in der nahen Zukunft der Fall sein.  

Diejenigen mit einem bezahlten Plan können die neue Funktion direkt selbst testen, sollten im Zweifel sich aber darauf einstellen, dass es durch die sehr starke Nutzung immer mal wieder zu Ausfällen kommen kann.  

Was alles möglich ist mit dem neuen Feature hat eindrucksvoll PJ Ace auf Twitter gezeigt. Er hat den Trailer des ersten Herr der Ringe Films nämlich im berühmten Anime-Ghibli Stil nachgebaut. Dazu hat er den Trailer in Screenshots zerlegt, diese dann in Sora hochgeladen um mit dem neuen Bildmodell sie nachbauen zu lassen. Anschließend hat er die Bilder mithilfe von anderen Videotools wie Kling animiert und zu einem Trailer zusammengeschnitten. Das Ergebnis ist wirklich beeindruckend und hat ihn laut eigener Aussage lediglich 250$ und 9 Stunden Arbeitszeit gekostet.  

Wir haben in einem eigenen Video schon alle wichtigen Merkmale und Funktionen dieses neuen Modells für euch ausprobiert, den Link dazu findet ihr hier.

🔌 OpenAI unterstützt MCP

Anthropic hat schon vor einiger Zeit das sogenannte Model Context Protocol oder kurz MCP vorgestellt. Dabei handelt es sich im Prinzip um eine Art Schnittstelle zwischen KI-Modellen wie Claude oder GPT und anderen Tools wie beispielsweise Maps einem Browser etc. MCP wird oft auch als USB für KI bezeichnet, denn mit diesem Protokoll können KI-Modelle ganz einfach an andere Tools angebunden werden und können diese verwenden.

Und obwohl MCP von Anthropic, also dem Unternehmen hinter dem Claude Chatbot, einem ChatGPT Konkurrenten entwickelt wurde haben OpenAI und Sam Altman jetzt angekündigt, dass die eigenen KIs zukünftig mit dem Protokoll arbeiten werden und diese Schnittstelle unterstützen. Das ist vermutlich der endgültige Durchbruch für MCP und das finden wir persönlich wirklich sehr cool, denn damit sind sehr viele Anwendungen möglich.

🖼️ Reve ist die neue Nummer 1 unter den Bild-KIs

Aber nicht nur OpenAI hat im Bereich der Bild-KIs für Aufregung gesorgt. Es ist mal wieder ein ganz neuer Anbieter auf der Bildfläche erschienen mit den Namen “Reve”. Reve steckt hinter dem in vielen Leaderboards aufgetauchten Modell “Half Moon” und konnte sich in diesen Leaderboards den Spitzenplatz sichern. Wir haben hier also die – zumindest auf dem Papier – beste Bild-KI aktuell. 

Und man muss sagen: Die Demos und viele der Beispiele, die man jetzt online findet, machen schon etwas her und auch Reve scheint wie das neue OpenAI Modell gut mit vielen Schwierigkeiten wie Text auf Bildern klarzukommen. Man kann Reve mit einem kostenlosen Account aktuell auch relativ großzügig testen. Wir sind außerdem schon dabei uns ein eigenes Bild der Fähigkeiten zu machen und melden uns da sicher bald mit einem Test für euch nochmal zurück!

🔎 Googles AI Overviews auch in Deutschland

Nachdem wir ja vor kurzem schon erste Beispiele für die AI Overviews in der Google Suche auch in Deutschland gesehen haben ist es jetzt offiziell: Google hat im eigenen Blog die “Übersicht mit KI” angekündigt. Sehr geschmeidig übersetzt finden wir das jetzt nicht wirklich, aber es ist interessant zu sehen, dass Deutschland tatsächlich unter den relativ wenigen neuen Ländern ist, die jetzt neu dazugekommen sind, die Übersicht nämlich ziemlich kurz. Aktuell haben wir es auch noch nicht geschafft, selbst einmal eine KI-Übersicht zu bekommen, wir haben verschiedene Suchen ausprobiert, aber vielleicht befindet sich das eben auch noch so ein bisschen im Rollout.

Autor

  • Profilbild von Timothy Meixner

    Timothy Meixner ist Mitgründer und Geschäftsführer der Meixner & Ruof UG. Als KI- und Office-Experte betreibt er zusammen mit Johannes Ruof den erfolgreichen YouTube-Kanal Digitale Profis (125.000+ Abonnent:innen).

    Alle Beiträge ansehen
Nach oben scrollen