Die KI-News der Woche vom 26.09.2024

Die KI-News der Woche vom 26.09.2024

Melde Dich für unseren Newsletter an und erhalte alle wichtigen News direkt in dein Postfach!

OpenAI hat den neuen Voice-Modus jetzt für alle User ab dem Plus-Plan freigeschaltet, aber nicht für uns, Meta stellt bei der Meta Connect neue Modelle und Hardware vor, KI-Podcasts sind jetzt auch auf Deutsch möglich und vieles mehr. 

🆕 Meta stellt neue Modelle vor 

Meta hat neue Modelle aus der Llama Familie vorgestellt und damit jetzt auch erstmals multimodale Modelle mit Vision-Fähigkeiten. Wir haben in der Version Llama 3.2 eine 11 und eine 90B Variante der neuen Vision-Modelle bekommen, außerdem wurden zwei neue kleine Llama 3.2 Modelle ohne Multimodalität mit 1B und 3B vorgestellt, die sich vor allem für den Einsatz auf mobilen Geräten eignen dürften. 

🦙 Neue Llama Modelle in Deutschland

Wir haben sofort wieder viele Aufschreie zu hören bekommen, dass wir das ja in der EU nicht testen können, aber können Euch da direkt erleichtern: Auch wenn Meta, die neuen Modelle nicht selbst „offiziell“ bei uns anbietet, können wir als einfache Anwender natürlich damit arbeiten – auch ohne VPN oder großes Hickhack. Die Modelle sind alle Open Source, ich muss also nur auf Huggingface gehen, mir einen Space dafür aussuchen und kann direkt los chatten. Damit es für Euch noch einfacher wird, hier direkt der Link zum Chat. 

Eine Zusatzinfo an dieser Stelle. Laut den Nutzungsbedingungen von Meta darf man die Modelle in der EU aktuell zwar nicht verwenden, um eigene Anwendungen damit zu entwickeln, als Nutzer darf ich aber sehr wohl auf Tools zugreifen, die diese Modelle verwenden. Es ist also vermutlich auch für uns kein Dauerzustand und wir haben auf jeden Fall noch etwas Hoffnung, dass wir auch als Entwickler in der Zukunft Zugriff bekommen. 

👓 Weitere Meta Connect Neuigkeiten

Neben neuen KI-Modellen hat Meta aber auch bei der eigenen Meta Connect Konferenz weitere Produktneuigkeiten vorgestellt, unter anderem die Meta Quest 3S und ein superspannender Prototyp mit dem Namen „Orion“ – was ein bisschen lustig ist, da dieser Codename ja zuletzt aus der Richtung OpenAI für neue Modelle zu hören war.

Diese neue Augmented Reality Brille, die zugegebenermaßen immer noch ziemlich klobig aussieht, ist aber wie gesagt aktuell noch ein Prototyp und nicht fertig, sondern spiegelt nur einen Zwischenstand der Entwicklung wider. Mit innovativen Steuerungen über Augen-Tracking, Hand-Tracking und ein Armband, das neuronale Signale erkennen soll, dürfte die Orion-Brille eine komplett neue Art von Hardware sein und wir sind schon sehr gespannt, wann wir dazu mehr berichten können. 

Meta.ai hat neben den neuen Modellen übrigens auch einen Voice-Mode bekommen, aber auch hier können wir leider aktuell in der EU noch nicht damit arbeiten.  

🗣️ Neuer ChatGPT Voice Mode

Wenn wir gerade über Dinge sprechen, die für uns nicht möglich sind: OpenAI hat den neuen Voice Modus jetzt für „alle“ User ab einem Plus-Plan freigeschaltet und die ersten Tests sind durchaus überzeugend. Enttäuschenderweise ist aber auch diese Funktion bei uns aktuell nicht verfügbar, denn ausgeschlossen sind aktuell noch die EU, Großbritannien, die Schweiz, Island, Norwegen, und Liechtenstein. 

📝 Top KI-Unternehmen unterzeichnen AI Pact

Sowohl OpenAI, als auch Microsoft, Amazon und über hundert weitere Unternehmen haben nämlich jetzt die drei Kernanforderungen des AI Acts akzeptiert und den damit verknüpften freiwilligen AI-Pact „unterschrieben“. Damit erkennen sie die Wichtigkeit der Regelungen an. Es war ja auch ein relativ heiß diskutierter Punkt bei unserem Video speziell zum KI-Gesetz und hier müssen wir vielleicht einfach nochmal ein paar Dinge klarstellen: 

Anwender von KI betrifft vieles aus dem KI-Gesetz gar nicht wirklich direkt. Wir bekommen indirekt Auswirkungen zu spüren, indem beispielsweise Meta sagt: Meta.ai gibt es in der EU nicht, oder OpenAI den Voice Modus hier noch nicht ausrollt. Die Frage ist, wie viel davon aber wirklich mit dem AI Act zu tun hat. Wir haben viel auch mit Rechts-Experten gesprochen und diese sehen für alle diese Anwendungen eigentlich keine Probleme oder Konflikte mit den angedachten Regelungen. Möglicherweise hat es also andere Gründe, warum bestimmte Funktionen erst einmal auf kleiner Ebene ausgerollt werden. Der Kostenfaktor und die Knappheit an Hardware, die für die Rechenleistung benötigt wird, spielt mit Sicherheit eine nicht unwichtige Rolle.  

Denn wenn man mal genau hinschaut: Der Voice-Modus ist auch nicht in England oder in der Schweiz verfügbar – diese Länder haben mit der EU nichts zu tun, weder beim AI Act noch bei Datenschutzverordnungen. Unter Umständen möchten die führenden Konzerne einfach auch aufgrund der vielen Fehlschläge der letzten Monate mit dem Bereitstellen von neuen Features etwas vorsichtiger sein. 

🤖 Molmo Open Source Modelle 

Im Zuge der neuen Meta-Modelle ist eine andere Modellankündigung leider ziemlich untergegangen. Ein Unternehmen mit dem Namen AI2 hat ebenfalls eine Open Source Modellfamilie mit dem Namen Olmo vorgestellt, die ebenfalls Vision-Fähigkeiten haben und multimodal sind. Und laut Benchmarks sieht es so aus, als könnten die Olmo Modelle Meta sogar teilweise im Bereich Vision schlagen und auch die sonstige Leistung scheint beeindruckend. 

AI2 hat sich komplett der Open Source Community verschrieben und das finden wir super: Probiert das neue 7B-Modell doch mal auf molmo.allenai.org aus und lasst uns wissen, ob es Euch überzeugen kann. 

🚶🏻‍♀️ Weitere Führungskräfte verlassen OpenAI

In der Führungsebene von OpenAI kehrt keine Ruhe ein. Nachdem ja schon wirklich viele hochrangige Mitarbeitende gegangen sind, kommt jetzt ein weiterer, sehr prominenter Name dazu, mit CTO Mira Murati. In dieser Ankündigung ist sogar noch untergegangen, dass quasi zeitgleich auch Barret Zoph, der Vice President of Research und Bob McGrew, Chief Research Officer, OpenAI verlassen werden. 

Laut Chef Sam Altman sind die Stellen alle wieder besetzt, aber es ist schon auffällig wie viel Bewegung bei OpenAI in der Management-Ebene ist und wir sind gespannt, ob jetzt langsam mal Ruhe einkehrt. 

👩🏼‍💻 Neue Huggingchat-App für Mac

Huggingchat haben wir euch auf dem Kanal ja schonmal als kostenlosen Open Source Chatbot vorgestellt, mit dem man viele der besten Modelle auf Huggingface einfach und schnell verwenden kann. Huggingface hat jetzt die dazu passende App – leider erste einmal nur für Macs – vorgestellt. Mit dieser kleinen App kann man jederzeit mit einem einfachen Tastaturkürzel ein Promptfenster bekommen und mit der KI chatten. Wir hoffen, dass auch zumindest eine Windows-Version in der Planung ist und halten Euch da natürlich auf dem Laufenden. 

🔈 KI-Podcasts jetzt auch auf Deutsch

Unser Video zur neuen Podcast-Funktion von NotebookLM hat viele von Euch begeistert und die Funktionalität ist ja auch wirklich cool. Nur kurze Zeit danach können wir Euch jetzt sogar schon eine Alternative vorstellen, die sogar auf Deutsch funktioniert.  

Ich muss aber ganz ehrlich sein: „Out of the box“, also ohne viele Parameter selbst anzupassen, merkt man hier im Vergleich zur Google-Lösung relativ schnell, dass KI im Spiel ist, vor allem nach englischen Begriffen im deutschen Text, bekommen die Stimmen oft einen kleinen Dialekt, der dann nicht mehr verschwindet. 

Trotzdem eine superspannende Sache, die man einfach und schnell testen kann. Man benötigt dafür allerdings einen API-Key von OpenAI, denn das Tool funktioniert mit den Modellen des ChatGPT-Konzerns. 

Was ich hier schön finde: Neben der Audio-Datei erhalten wir auch das Transkript schön ausgeschrieben und können auch das weiterverwenden oder verbessern und den Podcast dann anderweitig vertonen – das ist wirklich praktisch.

Autor

  • Timothy Meixner

    Timothy Meixner ist Mitgründer und Geschäftsführer der Meixner & Ruof UG. Als KI- und Office-Experte betreibt er zusammen mit Johannes Ruof den erfolgreichen YouTube-Kanal Digitale Profis (80.000+ Abonnent:innen).

    Alle Beiträge ansehen
Nach oben scrollen