Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!
Das Grok 3 Modell von xAI legt einen beeindruckenden Start hin, OpenAI macht jetzt doch wieder Open Source und der Operator Agent bringt schwerwiegende Sicherheitsrisiken mit – für diejenigen, die ihn benutzen!
🆕 Grok 3 ist jetzt verfügbar
Wie erwartet wurde am Montag das neue KI-Modell von Elon Musks Unternehmen xAI vorgestellt – Grok 3. Und seitdem gab es einiges an Nachrichten und Aufregung um das neue Modell. Ganz zu Beginn der Hinweis: Wir haben seit gestern Abend Zugriff auf Grok 3 mit den neuen Funktionen über die Grok Website und werden das ausführlich für euch testen, um euch unsere Meinung zu sagen. Mit dem Video dazu könnt ihr ziemlich sicher nächste Woche rechnen.
Es gab eine Menge Hin und Her beim Rollout des neuen Modells und ein zuverlässiger Zugriff auf alle neuen Funktionen war auch in den USA zunächst schwierig. Dabei hat das Modell sich gewaltig angekündigt: mit einem Platz 1 über alle Kategorien in der Chatbot Arena und als erstes Modell mit über 1400 Punkten schien es zunächst wirklich so, als hätte das xAI Team mit ihrem Superrechenzentrum Collossus abgeliefert.
Und auch die Standalone Website des Chatbots sieht richtig gut aus. Wir haben viele eigentlich alle “State of the Art” Funktionen, also Dateiupload aber auch Websuche, Deep Search, was quasi das Deep Research Pendant ist – wer hätte es gedacht und die Möglichkeit Reasoning zu verwenden, um dem Modell Zeit zum Nachdenken zu geben.
Und auch die Benchmarks, die von xAI veröffentlicht wurden sehen wirklich gut aus und lassen die Konkurrenz von OpenAI hinter sich – auch wenn das einigen beim ChatGPT Konzern nicht gepasst hat, die mit dem vollen o3 Modell gekontert haben. Da muss man aber ehrlich sagen: Dieses Modell ist noch nicht veröffentlicht und damit ist dieser Vergleich nicht nachvollziehbar und eigentlich hinfällig.
Unseren Test bekommt ihr dann sobald wir das Modell selbst ausreichend testen konnten, aber es sieht auf jeden Fall vielversprechend aus. Es scheint außerdem aktuell noch ein Sprachmodus in der Mache zu sein, denn es wurden schon erste Anzeichen dafür entdeckt, außerdem ein “Super Grok”-Plan, der wohl 30 Dollar im Monat kosten wird und vermutlich dann der aktuell teuerste Plan sein wird.
🔓 Open Source R1 von Perplexity R1776
Perplexity, die KI-Suchmaschine, hat ja schon vor einiger Zeit eine Kooperation mit DeepSeek bekanntgegeben. Im Rahmen dieser Kooperation hat das Unternehmen jetzt auch eine eigene “unzensierte” Version von R1 bereitgestellt, die Open Source verwendet werden kann. Hierbei wurde penibel darauf geachtet, dass eben jene Prompts die beispielsweise mit regierungskritischen Informationen rausrücken sollten und dies aufgrund gewisser Regeln von R1 nicht getan haben, jetzt in der Lage sind faktenbasiert und objektiv zu antworten.
Die Performance des Modells reicht annähernd an die des Originals aber einige kritischere Stimmen gibt es auch, die Perplexity indirekt unterstellen das Ganze als etwas größeres verkaufen zu wollen als es ist. So behaupten sie, dass Perplexity lediglich ein paar Feinheiten angepasst hat und das Ganze jetzt als eine eigens entwickelte Open Source Variante verkaufen will. Wir sehen das alles nicht ganz so kritisch um ehrlich zu sein und freuen uns, dass weitere Unternehmen in die Open Source Richtung gehen und wir so einfach mehr, leistungsstarke, Modelle zur Verfügung haben. Wer jetzt dann wirklich wie viel Arbeit reingesteckt hat, ist für uns in diesem Szenario eher zweitrangig. Hier gibt es die R1-Variante auf Huggingface.
📱 Open Source Projekt von OpenAI
Nachdem es ja in letzter Zeit wieder verstärkt Kritik an OpenAI gegeben hat – berechtigterweise, da das Unternehmen eben gar nichts im Open Source Bereich anbietet – scheint Chef Sam Altman dem Druck jetzt nachzugeben und will ein bisschen etwas anbieten. In einer Umfrage auf Twitter hat er ein neues Open Source Projekt angekündigt und darüber abstimmen lassen, was es sein soll. Ein kleineres Modell mit Fähigkeiten ähnlich zu o3-mini oder ein Modell, dass auf einem Smartphone laufen kann.
Das o3-mini Äquivalent hat die Umfrage gewonnen und wir sind gespannt, ob und vor allem, wann das wirklich kommt. Auch wenn wir es natürlich begrüßen, dass OpenAI hier etwas anbieten will – wir haben dann doch gerade vom Timing und der “Abkapselung” des Open Source Projekts von allen anderen Produkten von OpenAI das Gefühl, dass es sich hier eher um einen PR-Stunt handelt, um die Kritiker etwas zu beruhigen. In den Kommentaren wurde beispielsweise auch vorgeschlagen, ein älteres Modell wie GPT-4 zu opensourcen – das wäre für die allgemeine Weiterentwicklung im Bereich Open Source KI sicher cooler – das wird das Unternehmen aber vermutlich nie zulassen, da sie ja die gute Leistung ihrer proprietären Modelle als Wettbewerbsvorteil auch nutzen wollen.
❓ ChatGPT Update sorgt für Verwirrung
Auch an anderer Stelle gibt es wieder mal unserer Meinung nach berechtigte Kritik am Verhalten des ChatGPT Konzerns. Das GPT-4o Modell hat ein Update bekommen und soll jetzt bessere Antworten geben. Laut vielen Berichten online scheint das auch soweit zu stimmen, die Antworten des Chatbots scheinen “menschlicher” und damit oft besser zu sein. Das Problem daran: Alle Info zu diesem Update, die man von OpenAI wirklich bekommt ist dieser Tweet von Sam Altman: “Es gibt ein Update. Es ist ziemlich gut.” Für normale Hobby ChatGPT User ist das egal.
Aber Expertinnen und Experten kritisieren zurecht dieses Vorgehen: Es gibt keinerlei Informationen darüber, was am Modell jetzt anders ist. Wie wirkt sich das auf verschiedene Prozesse aus, in denen das Modell schon eingesetzt wird? Auch ChatGPT wird neben den Modell-APIs mittlerweile flächendeckend eingesetzt. Und jedes Update, jede Änderung an diesen Modellen sorgt dafür, dass manche Dinge vielleicht besser klappen aber andere nicht mehr, oder angepasst werden müssen. Da ist es zwingend erforderlich die Kommunikation zu verbessern, zum Beispiel wie Ethan Mollick sagt, über Changelogs, also Protokolle der Änderungen.
⛓️💥 Kommt die FSK18 Version von ChatGPT?
OpenAI hat eine überarbeitete Version seiner Model Spec veröffentlicht, die festlegt, wie sich KI-Modelle verhalten sollen. Das Dokument ist von etwa 10 auf 63 Seiten angewachsen und soll mehr Transparenz bieten. Es geht um Anpassbarkeit, Klarheit und die Möglichkeit, auch kontroverse Themen zu diskutieren. Klingt erstmal gut. Aber wie so oft gibt es Kritik: Die Änderungen betreffen sensible Themen wie den Umgang mit ethischen Dilemmata oder erwachsenen Inhalten – aber was genau hat sich geändert?
Laut OpenAI orientiert sich die neue Model Spec an aktuellen Debatten und Nutzer-Feedback, zum Beispiel zum sogenannten „AI Sycophancy“-Problem – also der Tendenz von KI-Modellen, Menschen einfach nach dem Mund zu reden. Doch welche konkreten Änderungen das für Nutzer bedeutet, bleibt unklar. Die neuen Regeln sind öffentlich einsehbar und OpenAI lädt zur Diskussion ein. Doch ob das wirklich mehr Klarheit bringt oder nur eine weitere PR-Maßnahme ist, bleibt abzuwarten.
Es klingt für uns aber tatsächlich so, als würde das Unternehmen versuchen etwas vorzufühlen, wie die User auf eine “uneingeschränktere” Version von GPT reagieren würden. Es kristallisiert sich ja immer mehr heraus, dass gewisse KI-Tools sich an bestimmte Zielgruppen richten und man im Stil der Antworten schon gewisse Tendenzen erkennen kann. Insbesondere aufgrund des politischen Klimas in den USA ist es also durchaus vorstellbar, dass wir schon bald eine, ich sag jetzt mal FSK 18 Version, von ChatGPT bekommen könnten, bei der erwachsenere Themen nicht kategorisch blockiert und zensiert werden, sondern eben für entsprechende User eine Antwort liefern.
🇪🇺 EU AI Act in Amerika?
Da hilft den Amerikanern weder der neue Präsident Donald Trump, noch Elon Musk oder die Stargate Allianz. Während JD Vance in Europa sich noch “darüber lustig macht”, wie wir hier den Fortschritt mit Regulation verhindern passiert auch in den USA mittlerweile einiges im Bereich KI und strengere Regeln. Laut ersten Berichten haben bereits über 12 Bundesstaaten eigene Gesetze auf den Weg gebracht, die wenn man den Informationen glauben darf “dem EU AI Act” erstaunlich ähnlich sehen. Es geht auch hier um Anwendungen die hohe oder inakzeptable Risiken darstellen und darum, wie man diese KIs strenger überwachen oder sogar verbieten kann.
Wir haben es ja selbst auch immer wieder betont und bleiben dabei: Regeln, nur damit es Regeln gibt sind nicht immer sinnvoll, aber eine so rasant fortschreitenden und potenziell gefährliche Technologie wie Künstliche Intelligenz können wir auch nicht einfach überall uneingeschränkt erlauben.
▶️ Veo 2 in der YouTube-App
Eine Schlagzeile hat uns Ende letzter Woche schon sehr hellhörig werden lassen: Veo 2 die unglaublich gute Video-KI von Google sei jetzt für alle verfügbar. Aber die Begeisterung hat schnell nachgelassen, denn es handelt sich nur nicht um die Vollversion von Veo im Web, auf die wir schon gespannt warten, sondern um eine Integration der KI in die YouTube-App für das Erstellen von Shorts. Das ist zwar an sich auch eine coole Funktion, aber laut ersten Berichten sind die Videos nicht ganz so beeindruckend, wie die aus der Webversion von Veo. Wir sind da weiterhin auf der Warteliste und informieren euch sofort, wenn es richtige News gibt.
⌨️ OpenAI Operator wurde gehackt
Bereits letztes Jahr hatten wir euch mal in einem kurzen Beitrag über den Cybersecurity Experten Johann Rehberger und seinen Blog embracethered berichtet. Hier berichtet er regelmäßig über die Gefahren und Sicherheitslücken von Software die wir regelmäßig verwenden. Diese Woche hat er in einem spannenden Experiment gezeigt, wie leicht KI-Agenten wie eben der OpenAI Operator ausgenutzt werden können, um persönliche Daten an dritte weiterzugeben. In seinem Beispiel hat er gezeigt, wie man unter anderem an Kontaktdaten wie Name, Email und sogar die Adresse kommen könnte.
Dazu verwendet er eine Technik, die sich Prompt Injection nennt und bei der Anweisungen auf einer Website für uns User versteckt werden, die dann aber trotzdem in der Lage sind die Ausgaben der KI zu beeinflussen. Wir haben euch seinen Blog mit dem entsprechenden Artikel natürlich verlinkt.
Generell möchte ich euch an dieser Stelle einfach nochmal raten, diese Agenten sehr vorsichtig einzusetzen und jetzt nicht auf Biegen und Brechen etwas zu automatisieren, das unter Umständen einiges an Schaden anrichten könnte. Letzten Endes sind diese Tools noch nicht zu 100% ausgereift und insbesondere wenn es um Datenschutz geht, muss man hier einfach etwas zurückhaltender agieren und nicht einfach eine KI im Browser losschicken, wenn sämtliche Logins, Passwörter und mehr in besagtem Browser gespeichert sind. Auf die zuverlässigen Agenten müssen wir einfach noch ein paar Monate warten, aber wir halten euch natürlich auf dem Laufenden, sobald sich hier etwas spannendes ergibt.
👩🏻💻 Thinking Machines von Mira Murati
Mira Murati, die einige vielleicht noch aus ihrer Zeit bei OpenAI kennen hat ein eigenes Unternehmen im Bereich KI gegründet – Thinking Machines. Noch ist nicht wirklich zu 100% klar, wo der Fokus des Unternehmens liegen wird und was das Team entwickelt, aber die Vermutungen gehen stark in die Richtung KI-Modelle und auch Produkte – also zum Beispiel Chatbots oder ähnliches, denn dort liegen die Stärken der Angestellten von Thinking Machines. Mira hat es nämlich tatsächlich geschafft OpenAI auch einige ihrer ehemaligen Kolleginnen und Kollegen abzujagen und ein kompetentes Team auf die Beine gestellt. Wir dürfen also auf jeden Fall gespannt sein, was da auf uns zukommt.