Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!
Sam Altman sagt, der Energieverbrauch von KI-Modellen ist gar nicht so schlimm, im Vergleich zum Energieverbrauch beim Erziehen von Kindern, Google legt mal wieder richtig nach mit neuem Modell, neuen AI Studio Funktionen und Musik-KI und Anthropic beklagt sich über Industriespionage aus China.
Alle wichtigen KI-News der Woche haben wir für Euch wie immer kompakt zusammengefasst.
👾 Antigravity im AI Studio
Google rüstet sein AI Studio massiv auf. Bisher war es eher ein Werkzeug für schnelle Prototypen, doch mit der eigenen Entwicklungssoftware „Antigravity“ soll es möglich werden, komplette Full-Stack-Anwendungen per Prompt zu generieren. Antigravity ist ja eine „Agent-first“ Entwicklungsplattform. Das bedeutet, es ist kein einfacher Code-Assistent, sondern ein autonomer Agent, der Entwicklungsaufgaben planen, ausführen und validieren kann. Bis jetzt ging das nur in der eigenständigen Antigravity App, jetzt wird das also direkt auch ins AI Studio integriert, was auf jeden Fall ein richtiger Schritt ist.
Zu den angekündigten Neuerungen gehören eine Authentifizierungsebene, vermutlich basierend auf Firebase, erweiterte Frontend-Unterstützung für andere Frameworks wie Next.js und eine vereinfachte Anbindung von externen APIs. Das ist echt cool, denn bisher waren die im AI Studio erstellten Prototypen zwar nice to have, aber eben oft isoliert und man konnte außerhalb vom AI Studio nicht viel damit anfangen. Damit positioniert sich Google klar als Plattform für die Entwicklung echter, datenbankgestützter Anwendungen.
🦾 Gemini 3.1 Pro
Aber auch bei den allgemeinen Modellen legt Google nach und hat letzte Woche Gemini 3.1 Pro vorgestellt. Die wichtigste Verbesserung soll die „Core Reasoning“-Fähigkeit sein, also das logische Schlussfolgern. In einem spezifischen Benchmark soll sich die Leistung hier mehr als verdoppelt haben.
Wirklich beeindruckend sind aber die neuen kreativen Fähigkeiten. Das Modell kann jetzt aus reinen Textbeschreibungen richtig gute, animierte, skalierbare Vektorgrafiken (SVGs) generieren. Außerdem kann es komplexe Programmierschnittstellen (APIs) nehmen und daraus benutzerfreundliche Dashboards erstellen, wie Google am Beispiel einer Live-Visualisierung der ISS-Flugbahn demonstriert hat. Das ist schon ein starker Schritt in Richtung KI als echter technischer Assistent.
Im direkten Vergleich mit dem Konkurrenten Claude 4.6 von Anthropic zeigt sich aber ein differenziertes Bild. Ein Test von Tom’s Guide ergab, dass Gemini zwar bei technischer Klarheit punktet, Claude aber in Bereichen wie sozialem Verständnis und emotionalen Nuancen die Nase vorn hat. Es bleibt also spannend, welches Modell sich für welche Anwendung am besten eignet. Am sinnvollsten ist es wirklich, die eigenen Anwendungen zu testen und zu schauen, welches Modell sich am besten schlägt.
🎼 Lyria in Gemini Chatbot
Google integriert sein neues generatives Musikmodell, Lyria 3, direkt in den Gemini-Chatbot. Ihr könnt damit 30-sekündige Audiotracks erstellen, indem ihr eine Idee, eine Stimmung oder sogar ein Foto beschreibt. Lyria generiert dann automatisch einen passenden Text und gibt euch Kontrolle über Stil und Gesang. Das Ganze wird dann noch mit einem Cover-Art von Nano Banana versehen.
Google betont, dass es hier nicht um musikalische Meisterwerke geht, sondern um eine unterhaltsame Möglichkeit zur Selbstdarstellung, vor allem für Social Media. Technisch gesehen sind alle generierten Tracks mit einem SynthID-Wasserzeichen versehen, um sie als KI-generiert zu kennzeichnen. Die Reaktionen sind gemischt. Einige finden die Audioqualität besser als bei der Konkurrenz von Suno oder Udio, andere empfinden die Kompositionen als etwas langweilig und es gibt eben nur die Möglichkeit der 30 Sekunden Clips, also ganze Songs kann man so (noch) nicht erstellen lassen. Der große Vorteil ist aber klar die einfache Bedienung und die direkte Integration in den Gemini Chatbot.
Klingt schon wirklich gut und auch hier ist es ja wieder nur die erste Version der Musik-KI. Es gibt aber noch ein dazu passendes Update.
🎹 Google Labs & Producer.ai
Passend dazu hat Google nämlich auch die KI-Musikplattform Producer.ai übernommen und in Google Labs integriert. Die Plattform, die viele noch unter dem Namen „Riffusion“ kennen – da haben wir sogar mal ein Video dazu gemacht, das ich nochmal in der Beschreibung verlinke – soll Kreativen mit den neuesten Google-Modellen wie Lyria 3 und Gemini bei der Musikproduktion helfen. Doch seit dem Rebranding und der Übernahme gibt es auch Kritik von der Community.
Viele langjährige User beklagen eine Verschlechterung der Audioqualität, das Entfernen von beliebten Funktionen und unbrauchbare Ergebnisse. Das klingt natürlich erst einmal schlecht. Aber die Plattform sieht schon echt gut aus und soll neben der reinen Erstellung von Songs auch weitere Funktionen wie Musikvideos und das Erstellen von eigenen Instrumenten und Plugins für die Audioproduktion mitbringen.
Wir sind mal gespannt, wie sich das Ganze entwickelt. Man kann Producer AI aktuell auch kostenlos testen, da könnt ihr euch selbst ein Bild machen.
👨🏻⚖️ Anthropic beschuldigt asiatische KI-Unternehmen
Jetzt wird es politisch. Das US-KI-Unternehmen Anthropic hat öffentlich gemacht, dass es „industrielle Angriffe“ zur sogenannten „Destillation“ seines Modells Claude durch drei asiatische KI-Labore aufgedeckt hat: DeepSeek, Moonshot AI und MiniMax. Bei diesen Angriffen wurden über 16 Millionen Anfragen über tausende gefälschte Konten an Claude gerichtet, um die eigenen Modelle der Angreifer zu trainieren.
Anthropic wirft den Unternehmen vor, ihre Nutzungsbedingungen verletzt und den Zugriff aus China verschleiert zu haben. Die nationale Sicherheitsbedenken sind groß: Man befürchtet, dass KI-Fähigkeiten ohne die in Claude eingebauten Sicherheitsvorkehrungen in die Hände autoritärer Regime gelangen könnten. Gleichzeitig untergraben solche Aktionen die US-Exportkontrollen für KI-Chips. Kritiker weisen aber darauf hin, dass Destillation eine gängige Praxis in der KI-Entwicklung ist und werfen Anthropic eine gewisse Scheinheiligkeit vor, denn auch das US-Unternehmen war schon vor Gericht, weil sie aus tausenden urheberrechtlich geschützter Werke Daten für ihr Training missbraucht haben.
💡 OpenAI Pro Lite Plan
OpenAI plant anscheinend einen neuen Abo-Plan namens „ChatGPT Pro Lite“ für 100 US-Dollar im Monat. Ein Entwickler hat eine noch nicht öffentliche Checkout-Seite entdeckt, die diesen Plan auflistet. Er würde sich preislich genau zwischen dem Plus-Abo für 20 Dollar und dem teuren Pro-Plan für 200 Dollar positionieren.
Damit würde OpenAI eine Lücke für Power-User wie Freelancer, Forscher oder Entwickler schließen, denen der Plus-Plan nicht reicht, für die der Pro-Plan aber zu teuer ist. Es wird spekuliert, dass der neue Plan höhere Nutzungslimits und vielleicht Zugang zu rechenintensiveren Funktionen wie permanent laufenden KI-Agenten – wie beispielsweise OpenClaw – bieten könnte. Eine offizielle Ankündigung gibt es noch nicht, aber der Leak deutet auf eine baldige Einführung hin. Das könnte den Konkurrenzdruck auf andere Anbieter auch nochmal erhöhen.
🎥 Anime mit SeeDance 2.0
Ein kreatives Anwendungsbeispiel für KI kommt von Reddit. Ein Nutzer hat den KI-Videogenerator Seedance 2 von ByteDance genutzt, um eine Szene aus dem Anime „My Sister, My Writer“ neu zu erstellen. Der Anime ist berüchtigt für seine extrem schlechte Animationsqualität. Das Ganze hat ihn 50 Dollar gekostet.
Interessant ist die Methode: Er hat die Charaktere in den Originalbildern zu groben „Farbklecksen“ abstrahiert, damit die KI nur die Komposition, aber nicht den fehlerhaften Zeichenstil übernimmt. Das Ergebnis ist beeindruckend und zeigt das Potenzial von KI-Tools zur Restaurierung oder Verbesserung von Medieninhalten. Als Kritikpunkt merkte der Nutzer an, dass die Gesichtsausdrücke der KI-Charaktere weniger ausdrucksstark seien. Aber trotzdem eine coole Demo!
⚡️ Altman und der Energieverbrauch
Zum Schluss noch eine kontroverse Aussage von OpenAI-CEO Sam Altman zum massiven Energieverbrauch von KI. In einem Interview verglich er den Energieaufwand für das Training eines KI-Modells mit der Energie, die ein Mensch über 20 Jahre durch Nahrung aufnimmt, um „klug zu werden“.
Dieser Vergleich stieß auf heftigen Widerspruch. Die Internationale Energieagentur schätzt, dass Rechenzentren 2024 bereits 1,5% des globalen Stromverbrauchs ausmachen, mit stark steigender Tendenz. Kritiker werfen Altman eine falsche Äquivalenz vor. Sie argumentieren, dass KI auf dem gesamten kollektiven Wissen der Menschheit aufbaut, was ihren tatsächlichen „Energie-Fußabdruck“ um Größenordnungen erhöht.
Ganz abgesehen davon sind viele von dieser Aussage entsetzt und bezeichnen Altman als Soziopathen, der einen Menschen, bzw. Kind und dessen Erwachsenwerden 1 zu 1 mit dem Training eines KI-Modells gleichsetzt. Was meint ihr dazu? Ist die Aussage hier ein bisschen aus dem Kontext gerissen oder verliert der OpenAI Chef ein bisschen den Bezug zur Realität? Lasst es uns gerne in den Kommentaren wissen.
