Microsoft stellt ein neues Small-Language-Modell vor, ChatGPT bekommt neue Funktionen und Moderna ersetzt Zehntausende von Mitarbeitenden dank Custom-GPTs. Wie immer haben wir für dich die wichtigsten News aus der KI Welt zusammengefasst.
🅰️ Adobe Firefly 3 – Update für die Bild-KI
Die größte Schlagzeile der Woche kommt von Adobe. Die Bilderzeugungs-KI Firefly hat ein Update bekommen und kann jetzt in der neuen Version Firefly 3 einen ordentlichen Sprung in Bezug auf die Qualität machen.
Firefly 3 kann kostenlos im Browser unter dieser URL genutzt werden und man hat pro Monat 25 Credits zur Verfügung, von denen man jeweils einen verbraucht, um die Bilderzeugung oder das Generative-Fill-Feature – also das Erweitern von existierenden Bildern – zu verwenden.
In unseren Tests konnte das Update auf jeden Fall gute Ergebnisse erzielen. Allerdings schwächelt Firefly momentan immer noch bei der Darstellung von Händen und vor allem Fingern.
Außerdem haben wir auch von anderen Kolleginnen und Kollegen gehört, dass wir bei Adobe, ähnlich wie bei Gemini, mit der ein oder anderen Zensur rechnen sollten und selbst harmlose Worte aus dem Prompt entfernt werden, da sie angeblich gegen Nutzungsbedingungen verstoßen könnten.
🤖 Microsoft Phi 3 – Ein neues Small-Language-Model
Nachdem wir im KI-Bereich immer über Large Language Models also große Sprachmodelle gesprochen haben, kommt jetzt immer mehr der Trend, dass die Anbieter dieser Modelle, kleinere solcher Modelle anbieten. Diese passenderweise Small-Language-Models genannten Varianten benötigen weniger Rechenleistung und Speicher und sind deshalb perfekt geeignet, um auf Smartphones, Tablets und Co verwendet zu werden.
Microsoft hat diese Woche Phi 3 vorgestellt, ein Modell, dass trotz seiner relativ überschaubaren Größe, in der Lage ist, deutlich größere Modelle wie Mixtral 7b und GPT 3.5 die Stirn zu bieten.
Das mag jetzt sehr nach technischen Feinheiten klingen, ist es aber nicht. Small Language Modelle sind alltagstauglich und bieten unfassbares Potenzial für uns Endnutzer. Schließlich wäre die Wunschvorstellung natürlich, dass man in der Zukunft auch ohne Internetverbindung Zugriff auf fähige KI-Tools hat, die eine höhere Sicherheit und Privatsphäre für die eigenen Daten bieten. Wer wissen möchte, wie man sich so eine KI offline installiert, kann gerne in unser Video von letzter Woche schauen, dort erklären wir Schritt für Schritt, wie man eine eigene KI auf den heimischen Computer laden kann – funktioniert übrigens auch direkt mit dem neuen Phi-3 Modell.
🥇 Die erste Nvidia DGX H200 geht an OpenAI
Der CEO von Nvidia Jensen Huang hat persönlich die erste DGX H200 bei OpenAI abgeliefert. Wenn man bedenkt, dass fast alle modernen KI-Tools in irgendeiner Form die Vorgängermodelle von Nvidia H100 verwenden, ist es natürlich ein Bild mit einer enormen Symbolwirkung.
Nicht Microsoft, Apple oder Google bekommt die erste Grafikkarte der nächsten Generation, sondern OpenAI. Damit stärkt die Firma hinter ChatGPT natürlich auch das Vertrauen von Nutzern und Investoren, da ohne die passende Hardware es sehr schwer werden wird KI-Modelle wie GPT 5 zu entwickeln.
Nvidia kommt der Nachfrage kaum nach und die größten Tech-Konzerne der Welt kämpfen geradezu darum, möglichst viele Grafikkarten zu kaufen.
🫥 ChatGPT bekommt Gedächtnis & Inkognito-Modus
Auf reddit tauchen momentan immer mehr User auf, die Zugriff auf das Memory Feature von ChatGPT erhalten. Wir hatten ja schon vor einiger Zeit darüber berichtet, dass es dieses Feature wohl in der nahen Zukunft geben wird, aber bisher haben weder wir noch andere Kolleginnen und Kollegen Zugriff darauf bekommen.
Die Memory Funktion soll es ChatGPT erlauben, auf Informationen aus anderen Gesprächen zwischen uns und der KI zugreifen zu können. Die Funktion ist dabei vollkommen optional und kann beliebig an und ausgestellt werden.
Hier bieten sich natürlich super viele Einsatzmöglichkeiten im Alltag, da es doch schon frustrierend sein kann, dem Chatbot jedes Mal aufs neue gewisse Informationen geben zu müssen.
Im selben Update scheint es wohl auch den lang erwarteten Inkognito-Modus für GPT geben. In diesem Modus soll dann wirklich nichts gespeichert und das Gespräch nach Verlassen des Chats direkt gelöscht werden.
🦙 Llama 3 zieht mit GPT-4 Turbo gleich
Es ist genug Zeit vergangen, dass wir die ersten brauchbaren Benchmarks für das neue Llama 3 Modell in der Chatbot-Arena bekommen haben und auch wenn Metas neues Open Source Modell natürlich mit hohen Erwartungen gestartet ist, kann man glaube ich doch sagen: Diese wurden mehr als erfüllt.
Die 70B Variante hat sich nicht nur an der bisherigen Nummer 1 im Bereich Open Source Command R Plus vorbeigeschlichen, sondern aktuell auch Gemini und Claude 3 Sonnet hinter sich gelassen. Wenn man nur die englischen Chats betrachtet wird es richtig wild: Hier steht das Llama 3 70B Modell aktuell auf einem geteilten ersten Platz im Ranking mit dem neuesten GPT-4 Turbo Modell von OpenAI.
Mit dieser Leistung hat vermutlich niemand gerechnet und wir dürfen nicht vergessen: Das ist noch nicht das Ende vom Lied, denn das richtig große 400B+ Modell von Llama 3 wird ja noch trainiert. Wenn dieses später im Jahr genau so abliefern kann, dann sehen wir möglicherweise zum ersten Mal wirklich alle proprietären Modelle, inklusive GPT von einer offenen Variante geschlagen. Es wird richtig spannend!
🕶️ Ray Ban Smart Glasses von Meta bekommen Updates
Die Ray Ban Smart Glasses von Meta haben ein Update bekommen und bieten jetzt mehr multimodale Möglichkeiten.
Die anfangs noch etwas belächelten Brillen mit KI werden im Alltag immer nützlicher und in der Vorstellung wurde unter anderem gezeigt, wie die integrierte KI Dinge erklären kann, die man als User gerade anschaut. Natürlich können die Ray Bans nicht unglaublich viele verschiedene Dinge, gleichzeitig muss man sagen, es sind eben immer noch relativ stylische und unauffällige Accessoires, die niemandem jetzt direkt auffallen würden.
Es macht doch einen gewaltigen Unterschied, ob ich mit einer Sonnenbrille oder einer Apple Vision Pro oder einem anderen XR Headset über die Straße laufe.
🆕 Updates für die Assistants API von OpenAI
Die Assistants API von OpenAI hat jede Menge Updates bekommen. Im Zuge von vielen Verbesserungen für die Enterprise Kunden des Unternehmens sind vor allem zwei Punkte aufgefallen: File Search in Kombination mit Vector-Storage.
Dieses neue System ermöglicht es für eigene Assistenten, die man sich mit der OpenAI Technologie bauen kann, 500-mal mehr Dateien hochzuladen, die der KI als Wissensquelle dienen – konkret bedeutet das 10.000 Dateien. Das klingt natürlich extrem viel und da kommt der zweite Teil der Vector-Storage ins Spiel. Diese Art von Datenbank liest alle Informationen einmal ein und zerteilt sie in kleine Stücke, die von der KI extrem effektiv gelesen und durchsucht werden können.
Damit werden die Assistants unglaublich gut darin, aus riesigen Datenmengen die korrekten Informationen wiederzugeben.
Klingt zu gut, um wahr zu sein? Ist es vielleicht auch ein bisschen für normale User, denn ohne ordentliche Optimierung werden die Abfragen schon bei wenigen, großen Dateien als Wissensquelle ordentlich teuer. Aber es ist trotzdem eine super spannende Entwicklung und vielleicht wird es auch bald bezahlbarer.
🩺 Moderna setzt voll auf Custom GPTs
In einem neuen Use Case hat OpenAI die Erfolgsstory von Moderna beim Einsatz von ChatGPT im Unternehmen vorgestellt. Der Pharmakonzern hat laut eigenen Angaben eine ChatGPT-Adoption von 100 % erreicht und 750 Custom-GPTs im Einsatz. Im Schnitt werden von Mitarbeitenden pro Woche 120 Anfragen an die KI gestellt. Dabei kommt GPT in allen Bereichen zum Einsatz, von Forschung über Management bis hin zur Rechtsabteilung.
Das Beispiel zeigt schön, wie Unternehmen vom richtigen Einsatz von künstlicher Intelligenz profitieren können. Geschäftsführer Stéphane Bancel sagt, um dieselbe Leistung ohne KI erbringen zu können, bräuchte Moderna mittlerweile vermutlich 100.000 Angestellte. Aber dank ChatGPT funktionieren die Prozesse mit einigen tausend Mitarbeitenden.