Die KI-News der Woche vom 19.03.2026

Die KI-News der Woche vom 19.03.2026

Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!

Google bringt ein heftiges Update für das Thema Vibe Design und Google Maps bekommt KI, gute Nachrichten von Mistral mit neuem Open Source Modell und neuer Unternehmenslösung und Midjourney muss ums Überleben kämpfen.

Alle wichtigen KI-News der Woche haben wir für euch wie immer kompakt zusammengefasst. 

👨🏻‍🎨 Google Stitch Update

Google Labs hat der Vibe Design Software „Stitch“ ein riesiges Update verpasst, das den Designprozess von Benutzeroberflächen für Web- und mobile Anwendungen deutlich beschleunigen soll. Stitch ermöglicht es, aus einfachen Textbeschreibungen oder sogar nur aus der Angabe einer gewünschten „Stimmung“ interaktive UI-Entwürfe zu generieren.  

Das Herzstück ist der KI-Canvas. Hier können Bilder, Texte oder Code abgelegt werden, die ein Design-Agent dann interpretiert. Besonders interessant ist die „DESIGN.md“-Datei, mit der sich Design-Systeme einfach importieren und exportieren lassen. Zudem kann man per Spracheingabe in Echtzeit Anpassungen vornehmen.   

Die erstellten Designs lassen sich sofort als interaktive Prototypen testen und in Entwickler-Tools wie AI Studio oder Figma exportieren. Das senkt natürlich die Einstiegshürde für Nicht-Designer enorm und hilft Profis, schneller erste Konzepte zu visualisieren. Allerdings gibt es auch Kritik: Der Figma-Export soll noch etwas unsauber sein, und den automatisch generierten Designs fehlt teilweise noch die strategische visuelle Führung. Trotzdem auf jeden Fall ein sehr cooler Ansatz und wir schauen uns das für euch definitiv noch genauer an.

🗺️ Google Maps Update

Auch bei Google Maps gibt es Neuigkeiten, die auf generativer KI basieren. Es gibt gleich zwei große Neuerungen: „Ask Maps“ und „Immersive Navigation“. Ask Maps ist eine neue, Gemini-gesteuerte Konversationsfunktion, mit der man jetzt komplexe Fragen in natürlicher Sprache stellen kann. Also nicht mehr einfach nur „Restaurant in der Nähe“, sondern zum Beispiel „Mein Handy ist fast leer, wo kann ich es laden ohne ewig für einen Kaffee anzustehen?“. Maps versteht dann die Situation, durchsucht die Daten von über 300 Millionen Orten und liefert personalisierte Empfehlungen. 

Die zweite große Neuerung ist Immersive Navigation. Die alte 2D-Kartenansicht beim Fahren wird durch eine lebendige 3D-Ansicht ersetzt, die Gebäude, Überführungen und das Gelände in Echtzeit darstellt. Dazu kommen intelligentere Spuranzeigen, Ampeln und Stoppschilder und eine natürlichere Sprachnavigation, die sich eher wie ein Beifahrer anhört. Statt „In 500 Metern rechts abbiegen“ heißt es jetzt zum Beispiel „Fahr an dieser Ausfahrt vorbei und nimm die nächste“. Das Ganze rollt aktuell in den USA und Indien auf Android und iOS aus, weitere Länder sollen in den nächsten Monaten folgen. Wir sind gespannt, wann das auch bei uns ankommt – das sieht auf jeden Fall wirklich gut aus.

🎤 Grok Text to Speech

xAI hat eine neue Text-to-Speech API für sein Modell Grok veröffentlicht. Zum Start gibt es fünf verschiedene Stimmen, die 20 Sprachen unterstützen. Das Besondere hierbei ist die feingranulare Kontrolle über die Sprachausgabe durch sogenannte „Inline Speech Tags“. 

Damit lassen sich direkt im Text non-verbale Laute wie Lachen oder Pausen einfügen, aber auch Betonungsänderungen wie Flüstern oder eine langsamere Sprechweise steuern. Das bietet Entwicklern eine enorme Flexibilität für die Erstellung lebensechter, dialogorientierter Anwendungen. Für Echtzeitanwendungen gibt es zudem eine WebSocket-Schnittstelle. Preislich liegt die API in der Beta-Phase bei 4,20 US-Dollar pro einer Million Zeichen.

🔸 Mistral Small 4

Mistral AI hat mit „Mistral Small 4“ ein neues, quelloffenes Hybridmodell unter der Apache 2.0 Lizenz veröffentlicht. Es vereint die Fähigkeiten der bisherigen spezialisierten Modelle von Mistral – also Magistral für logisches Denken, Pixtral für multimodale Aufgaben und Devstral für Code-Generierung – in einem einzigen Modell. 

Technisch basiert es auf einer Mixture-of-Experts Architektur mit insgesamt 119 Milliarden Parametern, wovon pro Token 6 Milliarden aktiv sind. Es bietet ein großes Kontextfenster von 256.000 Tokens und native multimodale Fähigkeiten. Eine interessante Neuerung ist der „reasoning_effort“-Parameter, mit dem man zwischen schnellen Antworten und tiefgründigeren Analysen wählen kann. Im Vergleich zum Vorgänger ist Small 4 laut Mistral 40 Prozent schneller und kann dreimal so viele Anfragen pro Sekunde verarbeiten. Dazu wurde auch eine strategische Partnerschaft mit Nvidia im Rahmen der neuen Nemotron Coalition angekündigt, mit der gemeinsam offene Frontier-Modelle entwickelt werden sollen. 

In der Community sorgt der Name „Small“ für etwas Verwunderung, da ein 119B-Modell durchaus beachtlich ist. Aber wir begrüßen das an sich, denn so haben wir mal wieder auch von Mistral ein etwas “besseres” Modell, das trotzdem Open Source ist. 

🎼 Foundation-1

Für die Musiker und Produzenten unter euch gibt es eine interessante Neuigkeit. Das Projekt RoyalCities hat Foundation-1 auf Hugging Face veröffentlicht, ein Text-to-Sample Modell, das speziell für die Musikproduktion entwickelt wurde. ImGegensatz zu Diensten wie Suno oder Udio, die ganze Songs erstellen, konzentriert sich Foundation-1 auf die Erzeugung einzelner, hochwertiger Audio-Samples und Loops für den Einsatz in der Produktion. 

Das Modell versteht dabei nicht einfach nur grobe Beschreibungen wie „warmer Pad-Sound“, sondern arbeitet mit einem geschichteten System aus Instrumentenfamilien, 
Klangfarben, Effekten und musikalischer Notation. So kann man als Produzent sehr präzise steuern, was für ein Sound herauskommen soll. Die Samples sind Tempo-synchronisiert und Takt-bewusst, also direkt für echte Produktions-Workflows geeignet. Foundation-1 basiert auf Stable Audio Open und stehtunter der Stability AI Community License zur Verfügung – für nicht-kommerzielle Nutzung oder kleine Unternehmen unter einer Million Dollar Umsatz.

🕵🏻‍♂️ Subagents in Codex

OpenAI hat eine spannende neue Funktion für Codex, ihr Entwicklungswerkzeug, in die allgemeine Verfügbarkeit gebracht: Subagents. Die Idee ist simpel, aber mächtig: Statt dass ein einzelner KI-Agent alles alleine macht, kann man jetzt mehrere spezialisierte Agenten parallel loslaufen lassen, die gleichzeitig an verschiedenen Teilaufgaben arbeiten. 

Man kann zum Beispiel sagen: „Prüfe diesen Pull Request auf Sicherheitsprobleme, Code-Qualität, Bugs und Test-Stabilität – erstelle für jeden Punkt einen eigenen Agenten.“ Codex erstellt dann automatisch die Unteragenten, wartet auf alle Ergebnisse und liefert eine zusammengefasste Antwort. Es gibt drei Standard-Agenten: Explorer zum Erkunden der Codebase, Worker für die eigentliche Arbeit und Default als Allzweck-Agent. Außerdem kann man über TOML-Konfigurationsdateien eigene, maßgeschneiderte Agenten definieren. Die Funktion verbraucht natürlich mehr Token als ein einzelner Agent, ist aber deutlich schneller, wenn viele Aufgaben parallel erledigt werden müssen. Das ist ein klarer Schritt in Richtung Multi-Agent-Workflows, wie wir sie zum Beispiel auch schon von Kimi und ihrer Swarm-Funktion kennen. 

🎯 Marketing mit KI

Ein interessantes Tool, das gerade auf Twitter viral gegangen ist, kommt von dem Startup Okara aus Singapur. Sie haben den nach eigenen Angaben weltweit ersten „AI CMO“ vorgestellt – also einen KI-gesteuerten Chief Marketing Officer. Man gibt einfach seine Website-URL ein und das Tool startet automatisch ein Team aus spezialisierten KI-Agenten, die sich um verschiedene Marketing-Kanäle kümmern. 

Es gibt einen SEO-Agenten, der täglich die Website analysiert, einen GEO-Agenten für die Sichtbarkeit in KI-Chatbots wie ChatGPT oder Claude, einen Content-Writer, Agenten für Reddit und Hacker News und sogar einen X-Agenten für SocialMedia. Das Ganze kostet 99 Dollar im Monat und Okara positioniert es als günstige Alternative zu einem kompletten Marketing-Team, das ja schnell Zehntausende Euro im Jahr kosten kann. Klingt natürlich erst einmal super, aber man muss bei so einem Tool natürlich auch realistisch sein. Für Solo-Gründer und kleine Startups, die kein Marketing-Budget haben, könnte es ein nützlicher Einstieg sein – ein echter Marketing-Profi wird dadurch vermutlich noch nicht ersetzt. 

🌄 Midjourney V8

Midjourney V8 ist da! Zumindest als Alpha-Version auf alpha.midjourney.com. Und das neue Modell hat es – laut Midjourney – in sich. V8 soll deutlich besser darin sein, detaillierte Anweisungen zu verstehen und umzusetzen. Text-Rendering in Bildern funktioniert so gut wie nie zuvor und die Bildgenerierung ist etwa fünfmal schneller als vorher. Dazu kommt ein neuer HD-Modus, der nativ Bilder in 2K-Auflösung rendern kann, ohne den Umweg über Upscaling. 

Auch die Personalisierung wurde massiv verbessert. Style References, Moodboards und die individuelle Stilanpassung sollen jetzt deutlich besser verstanden werden. Auf der UI-Seite gibt es einen neuen Conversation Mode für natürlicheres Prompten, einen Grid Mode für die Übersicht und Einstellungen in einer Sidebar, damit die nichts mehr verdecken. Aktuell ist der Relax-Modus noch nicht verfügbar und einige Premium-Features wie HD und Style References kosten viermal so viele GPU-Minuten. Trotzdem: Das ist ein großer Schritt nach vorne und wir sind gespannt, wie sich V8 bis zum finalen Release noch weiterentwickelt. 

Gleichzeitig gibt es aus der Community hier viel Kritik. Midjourney ist ja weiterhin nur hinter einer doch ordentlichen Bezahlschranke verfügbar und kann laut einigen auch loyalen Userm mittlerweile einfach nicht mehr mit Nano Banana und Co. Mithalten, die ja in großen Teilen sogar kostenlos nutzbar sind. Gerade bei Körperteilen gibt es laut Feedback auch in der Version 8 einfach zu viele Fehler und Probleme. Hier muss Midjourney auf jeden Fall nachbessern, denn sonst riskieren sie auch ihre treusten User endgültig zu verlieren. 

🤳🏻 Claude Cowork Dispatch

Anthropic hat ein spannendes neues Feature für Claude Cowork vorgestellt: Dispatch. Die Idee ist einfach, aber genial. Man hat eine durchgehende Konversation mit Claude, die auf dem eigenen Computer läuft. Und jetzt kann man dieser Konversation auch von unterwegs über die Claude-App auf dem Handy Aufgaben zuschicken. Man gibt Claude also zum Beispiel morgens eine Aufgabe wie „Erstell mir einen Bericht aus diesen lokalen Dateien“, geht aus dem Haus und kommt zurück zur fertigen Arbeit. 

Claude arbeitet dabei lokal auf dem Computer, hat Zugriff auf die eigenen Dateien, Ordner und installierte Plugins. Die Daten verlassen also nicht den Rechner. Allerdings muss der Computer dafür eingeschaltet sein und die Claude Desktop App muss laufen. Dispatch ist aktuell als Research Preview für Max-Abonnenten verfügbar, Pro-Nutzer sollen in den nächsten Tagen folgen. Das ist ein weiterer Schritt weg vom Chatbot hin zum echten, dauerhaft verfügbaren KI-Mitarbeiter. Anthropic warnt aber auch berechtigterweise davor, vorsichtig zu sein – es ist ja auch eine Art OpenClaw Klon und die Sicherheitsrisiken bei solchen KIs sind bekannt. Wer das noch nicht weiß, dem empfehle ich einfach unser Video zum Thema.

⚒️ Mistral Forge

Mistral war diese Woche wirklich sehr aktiv und hat neben Small 4 auch noch Forge angekündigt, eine neue Plattform für Unternehmen. Vorgestellt wurde das Ganze auf der Nvidia GTC Konferenz. Die Idee hinter Forge: Viele KI-Projekte in Unternehmen scheitern nicht an der Technologie, sondern daran, dass die Modelle das eigene Geschäft nicht verstehen, weil sie auf allgemeinen Internetdaten trainiert wurden. Forge soll es Unternehmen ermöglichen, eigene KI-Modelle auf Basis ihrer internen Daten von Grund auf zu trainieren. 

Das geht deutlich über normales Fine-Tuning hinaus, wie man es von anderen Anbietern kennt. Forge unterstützt den kompletten Trainingszyklus: vom Pre-Training über große interne Datensätze bis hin zu Reinforcement Learning, um die Modelle an interne Richtlinien und Prozesse anzupassen. Zu den ersten Partnern gehören unter anderem ASML, Ericsson und die Europäische Weltraumorganisation. Mistral CEO Arthur Mensch hat außerdem erklärt, dass das Unternehmen auf dem Weg ist, dieses Jahr erstmals eine Milliarde Dollar an jährlich wiederkehrendem Umsatz zu überschreiten. Das zeigt, dass Mistrals Strategie, sich auf den Unternehmensmarkt zu konzentrieren, aufzugehen scheint und das freut uns als Europäer natürlich sehr. 

🤖 GPT-5.4 Mini und Nano

Und zum Abschluss noch OpenAI, die gefühlt im Wochentakt neue Modelle raushauen. Keine zwei Wochen nach GPT-5.4 sind jetzt GPT-5.4 Mini und GPT-5.4 Nano erschienen. Das sind kleinere, schnellere Versionen des Flaggschiff-Modells, die speziell für Aufgaben optimiert sind, bei denen Geschwindigkeit und Kosten eine größere Rolle spielen als maximale Leistung. 

GPT-5.4 Mini ist dabei mehr als doppelt so schnell wie das alte GPT-5 Mini und kommt in vielen Benchmarks erstaunlich nah an das große GPT-5.4 heran. Es ist jetzt auch für kostenlose und Go-Nutzer in ChatGPT verfügbar, über die „Thinking“-Funktion im Plus-Menü. GPT-5.4 Nano ist das noch kleinere Modell, das vor allem für einfache, hochvolumige Aufgaben wie Klassifizierung, Datenextraktion und als Unteragent in größeren Systemen gedacht ist. Mit 0,20 Dollar pro Million Input-Token ist es extrem günstig. Nano gibt es allerdings nur über die API, nicht direkt in ChatGPT. 

Der Trend geht hier klar in Richtung spezialisierter, effizienter Modelle, die als schnelle Helfer in Multi-Agent-Systemen eingesetzt werden, während die großen Modelle die komplexen Planungsaufgaben übernehmen. Gerade in Kombination mit den neuen Codex-Subagents, die wir vorhin besprochen haben, ergibt das ein starkes Gesamtpaket.

Autor

  • Profilbild von Timothy Meixner

    Timothy Meixner ist Mitgründer und Geschäftsführer der Meixner & Ruof UG. Als KI- und Office-Experte betreibt er zusammen mit Johannes Ruof den erfolgreichen YouTube-Kanal Digitale Profis (125.000+ Abonnent:innen).

    Alle Beiträge ansehen
Nach oben scrollen