Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!
OpenAI dominiert diese Woche unser KI-News Update mit einem GPT Upgrade, Sora und neuen Preismodellen die ins Fünfstellige gehen sollen. Google testet wohl endlich auch KI-Funktionen in Deutschland und Opera stellt den ersten Browser mit eingebauten Agenten Funktionen vor.
🆕 GPT-4.5 für alle Plus-User
Wie versprochen hat OpenAI jetzt das neue Modell GPT 4.5 für alle zahlenden User freigeschalten und die Reaktionen sind gemischt. Von einigen Testern hören wir, dass sie das Gefühl haben mit einer vollkommen neuen KI zu interagieren und von anderen hören wir, dass es sich kaum wie ein Upgrade zur vorherigen Version 4o anfühlt. Unsere Tests sind momentan auch noch nicht eindeutig, weshalb wir uns an dieser Stelle ein vorschnelles Urteil sparen und kommende Woche dann im Detail unsere Ergebnisse vorstellen werden.
Laut Altman soll es vor allem emotional intelligenter wirken und das ist ja dann doch etwas, das in der Vergangenheit kritisiert wurde. Die Antworten von GPT klingen nach KI und die Antworten von Claude klingen menschlicher. Das ist so eine Standardaussage, die in den letzten Monaten immer wieder gefallen ist und auch deckungsgleich mit unseren Erfahrungen ist. Vom ersten Eindruck lässt sich das meiner Meinung nach auf jeden Fall bestätigen und wenn man jetzt mal die Profi-Brille absetzt, dann kann das dem durchschnittlichen User schon eine bessere Nutzererfahrung bescheren.
Aber wie eigentlich bei jedem Update der Modelle hören wir Stimmen, dass es sich anfühlt als wäre 4o auf einmal etwas herabgestuft worden und die Schuld soll angeblich bei mangelnder Rechenleistung liegen. Diese Vermutung ist jetzt nicht vollkommen absurd, da diese Hardware Problematik ja auch der Grund war, weshalb wir im Plus-Plan etwas länger auf den Zugriff auf 4.5 warten mussten. Aber apropos Rechenleistung: Die soll bei GPT-4.5 ja sehr hoch sein und deshalb gibt es auch aktuell noch sehr strikte Limits bei der Nutzung. Für Plus-User liegen diese aktuell wohl bei ca. 50 Nachrichten pro Woche.
Ein Benchmark möchte ich euch aber nicht vorenthalten und ja wir wissen selbst, dass diese Tests für uns als Endnutzer kaum Aussagekraft haben, aber dieser Benchmark ist wirklich etwas besonderes. GPT 4.5 konnte nämlich im Elimination Game den ersten Platz belegen. Hierbei handelt es sich um einen Test, der die manipulativen Fähigkeiten eines Sprachmodells auf die Probe stellt und eine Art Turnier simuliert bei dem die Teilnehmer miteinander kommunizieren, Allianzen bilden, einander hintergehen und schließlich einander rauswählen bzw. Eliminieren können. Also quasi Reality- Trash TV für KI Modelle. Hier konnte sich das neue Modell auf jeden Fall den ersten Platz sichern und das unterstreicht vermutlich auch nochmal deutlich die Emotionale Intelligenz von der Altman gesprochen hat. Ob das jetzt aber durchweg positiv ist, lass ich einfach mal offen.
💰 20.000 Dollar Agents von OpenAI
Es ist mal wieder eine erschreckend hohe Zahl im Zusammenhang mit Kosten für KI-Tools von OpenAI aufgetaucht. Laut einem Bericht von The Information plant OpenAI für ihre kommenden Agenten mit “PhD”-Niveau, also quasi Agenten mit Doktortitel, Preise von bis zu 20.000 Dollar pro Monat. Das hat für einige Aufregung gesorgt, aus mehreren Gründen. Es stellt sich zum einen die Frage, wie gut diese Agenten denn wirklich sein werden, um so einen Preis zu rechtfertigen. Aktuell steht OpenAI schon mit ihrem 200 Dollar pro Monat Pro Plan in der Kritik. Laut vielen Usern liefern Angebote der Konkurrenz, die ein Zehntel kosten, oder sogar ganz umsonst sind gleichwertige oder teilweise sogar bessere Ergebnisse. Egal, ob das jetzt Perplexity, Google Deep Research oder auch Grok sind. Diesen Preis jetzt nochmal zu verhundertfachen – dafür muss die Leistung ja Lichtjahre besser sein.
Ein weiterer Kritikpunkt, der durch diese Preisstrategie entsteht ist durchaus nachvollziehbar. Die besten KI-Tools sollen so also im Prinzip nur den absolut reichsten Personen und Organisationen zur Verfügung stehen. Hier setzt die KI-Szene aktuell viel Hoffnung in die ja wirklich schönerweise immer stärker werdene Open Source Szene und es wird spannend, ob sich OpenAI da wirklich dauerhaft so absetzen kann. Wir sind auf jeden Fall gespannt, was da auf uns zukommen wird und hoffen, nicht bald 20.000 Dollar ausgeben zu müssen, nur um euch über die neuesten Tools zu informieren.
💸 Neues Preismodell für ChatGPT?
Im gleichen Zug hat OpenAI Chef Sam Altman eine Reformation der bezahlten Pläne vorgeschlagen, die nicht mehr einfach nur Zugriff auf verschiedene Funktionen mit jeweiligen Limits beinhalten sollen, sondern der monatliche Betrag soll als eine Art Credits zur Verfügung stehen. Dieses Modell kennen wir schon von vielen anderen KI-Tools gerade im Bereich Video- und Bilderstellung, in denen man diese Credits dann dafür einsetzen kann, was man möchte, also zum Beispiel Videos erzeugen, bearbeiten oder Bilder erstellen. In ChatGPT könnte das ähnlich laufen, man könnte dann beispielsweise, wenn man ausschließlich die Deep Research Funktion nutzen will, die eigenen Credits dafür ausgeben.
An sich eine coole Sache, denn so hat man ein bisschen mehr Kontrolle darüber, für was man eigentlich zahlt. Altman hat übrigens im gleichen Atemzug angekündigt, dass man diese Credits auch nachkaufen kann, wenn man mehr braucht. Das wäre wieder ein kluger Schachzug von OpenAI um ein bisschen mehr Profit zu machen.
🗣️ Sesame klingt wie ein Mensch
Eine neue Sprach-KI, bzw. Die erste Demo davon hat mal wieder für viel Furore gesorgt. Sesame heißt das neue Konversationstool und bietet uns aktuell zwei KI-Stimmen an, mit denen wir uns unterhalten können. Aktuell funktioniert das nur wirklich gut auf Englisch, aber hier ist es wirklich unheimlich, wie menschlich die KI klingt. Hier kann man sich die Demo anhören, oder hier ein weiteres Beispiel.
Laut den Machern soll Sesame besonders gut darin sein, auch Emotionen mit in die Sprache einfließen zu lassen und das können wir absolut bestätigen. Man kann das Tool aktuell kostenfrei und ohne Account auf der Website testen und sich wahlweise mit Maya oder Miles unterhalten. Probiert es mal aus, es ist wirklich beeindruckend!
💻 Opera stellt Browser mit KI-Agent vor
Operatoren oder KI-Agenten sind ja immer noch ein sehr heiß diskutiertes Thema in der KI-Welt. Momentan ist die Umsetzung aber in der Regel sehr komplex. Das möchte das norwegische Unternehmen Opera mit seinem neuesten Browserfeature jetzt ändern.
Der Opera Browser ist bei uns in Deutschland nicht wirklich weit verbreitet, ist aber schon seit einiger Zeit bekannt dafür innovative Features gratis umzusetzen. So gibt es beispielsweise einen kostenlosen VPN-Service den man bequem im Browser an und ausschalten kann und auch sporadische KI-Funktionen sind integriert. Jetzt soll also ein Operator, der direkt im Browser ausgeführt werden kann, Agentenfunktionen massentauglich machen.
Die KI soll dann in der Lage sein für uns Tische zu reservieren, online einzukaufen und vieles mehr – benötigt dafür aber natürlich unsere doch etwas sensibleren Zahlungsinformationen wie Kreditkartendaten – was vermutlich einige etwas abschrecken wird. Der Browser selbst ist, Stand heute, nur als Preview verfügbar und wir werden selbstverständlich darüber berichten und ihn für euch testen sobald er in Deutschland vollumfänglich verfügbar ist.
🧠 Neues Reasoning-Modell von Qwen
Vorhin hatten wir es schon kurz von der immer stärker werdenden Open Source Konkurrenz zu OpenAI. Die Alibaba Gruppe hat für ihren Chatbot Qwen und auch die lokale Nutzung jetzt mal wieder ein unglaublich beeindruckendes Modell vorgestellt. QwQ-32B heißt dieses neue Reasoning Modell mit der Fähigkeit ähnlich wie die o-Modelle von OpenAI oder das R1 Modell durch einen eigens erzeugten Gedankengang bessere Ergebnisse zu liefern. Laut ersten Benchmarks steht das Modell in etwa auf einer Stufe mit DeepSeeks R1, was wirklich beeindruckend ist.
Denn, wie der Name schon andeutet, hat dieses Modell lediglich 32 Milliarden Parameter, im Gegensatz zu den 671 des vollen R1 Modells. Damit bietet es sich tatsächlich sogar für die lokale Offline Nutzung auf einigermaßen leistungsstarker Hardware an. Mit diesen vergleichsweise geringen technischen Anforderungen diesselbe Leistung zu erzielen ist schon ziemlich wild. Ihr könnt das Modell im Qwen Chatbot selbst und natürlich auch in entsprechenden Spaces bei Huggingface selbst testen.
🖼️ Dall-E 4 in Aussicht?
Ziemlich versteckt in den Kommentaren zur Ankündigung von GPT-4.5 haben wir noch eine interessante Nachricht zum Angebot von OpenAI bekommen. Auf das Feedback, dass das Unternehmen doch bitte die Bilderzeugung verbessern sollte, hat Chef Sam Altman in seiner üblichen kryptischen Manier geantwortet mit: “you will relatively soon be wild with joy”. Das hört sich für uns fast so ein bisschen danach an, dass wir vielleicht ein Update der Bild-KI Dall-E erwarten dürfen. Viele User sind mittlerweile enttäuscht vom Angebot von OpenAI, dass seit dem Update auf die Version 3 ja auch das letzte Mal im Oktober 2023 aktualisiert wurde. Es wäre also eigentlich überfällig. Was auf der anderen Seite das “relatively soon” heißen soll – das ist schwer zu sagen, denn auch bei der Video-KI Sora sind nach einem ”Soon” von Altman noch mehrere Monate vergangen, bis wirklich etwas veröffentlicht wurde.
📼 Sora für alle verfügbar
Apropos Sora: Seit dieser Woche haben jetzt auch alle hier in der EU Zugriff auf die Video-KI von OpenAI. Sofern man zumindest einen Plus-Plan hat. Nach einer ewig langen Wartezeit, die wir uns mal wieder nicht so richtig erklären konnten, hat sich der ChatGPT Konzern jetzt anscheinend dazu entschieden, dass es an der Zeit ist, dass auch wir mit Sora arbeiten dürfen.
Wir haben uns die Video-KI schon angeschaut und für euch ein ausführliches Tutorial aufgenommen, in dem wir alle Funktionen erklären und testen. Das Video ist natürlich direkt hier verlinkt, also wenn euch das interessiert und ihr euch vielleicht fragt, ob sich dafür ein Plus Plan lohnen könnte, dann schaut auf jeden Fall mal vorbei.
🍏 Apple verliert das KI-Rennen
Dass Apple im Bereich KI nicht viel zu melden hat – das ist keine wirklich Überraschung. Laut neuesten Berichten des Apple Analysten Mark Gurman sieht es allerdings noch schlimmer aus, als gedacht. Der Konzern steht aktuell schon schwer in der Kritik, da beispielsweise das KI-Feature zum Bearbeiten von Bildern, im Vergleich zur Konkurrenz unglaublich schlecht ist.
Jetzt gibt es wohl Stimmen aus dem AI Team von Apple selbst, die sagen, ein richtiges Update für Siri als richtige Sprachassistentin, ähnlich wie die neue Alexa oder andere Ansätze wie Sesame, was wir gerade gehört haben, wird vor 2027 nichts werden. Damit gerät Apple natürlich noch viel weiter ins Hintertreffen und auch wenn die Geräte sonst natürlich gut sind – es ist die Frage, wie lange man die eigene Kundschaft noch bei der Stange halten kann, wenn Samsung, Google und Co. es in dieser Zeit weiter schaffen, nützliche und beeindruckende KI-Funktionen zu integrieren.
🔎 Google mit neuen KI-Funktionen
Google schraubt weiter an seiner KI-Suche und bringt zwei große Neuerungen: AI Overviews bekommen ein Upgrade mit Gemini 2.0 und es gibt einen neuen AI Mode, der noch smartere Antworten liefern soll.
AI Overviews sind mittlerweile bei über einer Milliarde Menschen im Einsatz – jetzt sollen sie noch besser werden. Mit Gemini 2.0 gibt es jetzt angeblich präzisere und schnellere Antworten, vor allem bei Coding, Mathe und multimodalen Anfragen. Außerdem können die AI Overviews jetzt auch ohne Anmeldung genutzt werden.
Für alle, die noch mehr KI in der Suche wollen, testet Google gerade AI Mode. Das ist eine erweiterte Version von AI Overviews mit besseren Reasoning, Vergleich- und Multisearch-Fähigkeiten. Heißt konkret: Du kannst komplexe Fragen stellen, Details vergleichen und direkt nachhaken, ohne selbst zig Suchanfragen tippen zu müssen. Die KI kombiniert dafür klassische Websuche mit Echtzeit-Daten, Knowledge Graph & Co.
Noch ist AI Mode ein experimentelles Feature in Google Labs, aber Google One AI Premium-Nutzer dürfen schon mal ran und es wird fleißig optimiert – unter anderem wird an präziseren Antworten, besseren Visualisierungen und smarterer Verlinkung gearbeitet.
Was uns persönlich freut, ist dass wir jetzt die ersten Screenshots gesehen haben, von den AI Overviews in Deutschland. Zwar waren sie auch nur auf Englisch verfügbar und konnte nicht zuverlässig reproduziert werden, es scheint sich aber wirklich was zu bewegen bei Google und wir halten euch diesbezüglich natürlich auf dem Laufenden, wenn es offizielle Infos gibt. Momentan hat sich Google dazu noch nicht geäußert.