Die Interaktion mit KI-Chatbots und Sprachmodellen nimmt stetig zu – sei es im Beruf, im Studium oder privat. Dabei stellt sich oft die Frage: Wie lassen sich dabei die besten Ergebnisse erzielen? Wie können unsere Anfragen, die Prompts, so formuliert werden, dass die KI wirklich präzise, hilfreiche und auf individuelle Bedürfnisse zugeschnittene Antworten liefert?
Die Art und Weise des Promptings ist dabei entscheidend. Es gibt nicht den einen, allgemeingültigen „Super-Prompt“, sondern eine ganze Reihe an Techniken, die helfen können, die Interaktion mit KI-Modellen gezielt zu steuern und zu optimieren. Dieser Artikel stellt fünf solcher Prompt-Techniken vor, die Ergebnisse verbessern können und aufzeigen, wie die KI noch besser als kreative Unterstützung und zur Problemlösung genutzt werden kann.
Kontextbasiertes Prompting
Es kann vorkommen, dass eine gestellte Frage von der KI nur oberflächlich beantwortet wird oder den Kern einer spezifischen Situation verfehlt. Genau hier setzt das kontextbasierte Prompting an. Die Idee ist einfach: Bevor die eigentliche Frage oder Aufgabe formuliert wird, erhält die KI alle relevanten Hintergrundinformationen.
Es wird also zunächst der Kontext geliefert – das können spezifische Rahmenbedingungen, wichtige Annahmen, ein Auszug aus einem Dokument oder eine kurze Situationsbeschreibung sein. Wichtig ist nur, dass die konkrete Frage erst nach dem Kontext gestellt wird.
Ein Beispiel: Statt einfach zu fragen „Wie schreibe ich eine gute Pressemitteilung?“, könnte die Anfrage so formuliert werden:
Prompt zum Kopieren
Kontext: Mein Unternehmen, ein kleines Start-up im Bereich nachhaltige Verpackungen, bringt nächste Woche ein innovatives, biologisch abbaubares Produkt auf den Markt. Wir haben noch keine große Medienreichweite. Frage: Formuliere mir einen Entwurf für eine Pressemitteilung, die das Interesse lokaler Journalisten wecken könnte und die Kernvorteile des Produkts für umweltbewusste Verbraucher hervorhebt.
Der entscheidende Vorteil dabei ist, dass die KI mit den nötigen Informationen versorgt wird. Sie kann die Anfrage dann nicht nur allgemein verstehen, sondern eine Antwort generieren, die wirklich relevant und präzise auf die individuelle Situation zugeschnitten ist. Dies ist besonders wertvoll, wenn die Antwort stark von bestimmten Umständen abhängt oder wenn spezifisches Vorwissen für die Bearbeitung notwendig ist.
Rollenbasiertes Prompting
Manchmal wird nicht nur eine allgemeine Information benötigt, sondern eine Antwort aus einer ganz bestimmten Sichtweise, vielleicht mit einem spezifischen Tonfall oder implizitem Fachwissen. Hier kommt das rollenbasierte Prompting ins Spiel, bei dem der KI eine klare Rolle zugewiesen wird.
Im Prompt wird also explizit eine Rolle für die KI definiert. Das kann ein Beruf sein, eine historische Persönlichkeit oder auch eine fiktive Figur. Es können sogar Attribute wie Berufserfahrung, bestimmte Charaktereigenschaften oder ein gewünschter Sprachstil mitgegeben werden.
Ein Beispiel hierfür ist folgender Prompt:
Prompt zum Kopieren
Du bist ein erfahrener Geschichtsprofessor, spezialisiert auf das Römische Reich, und hältst einen Kurzvortrag für interessierte Laien. Erkläre die Hauptgründe für den Untergang des Weströmischen Reiches. Achte auf eine lebendige Erzählweise und vermeide reine Jahreszahlenaufzählungen.
Der Vorteil besteht darin, dass so die Perspektive, der Stil und oft auch der implizite Wissensschatz der KI gelenkt werden. Die Antworten wirken dadurch oft authentischer, sind besser auf die Zielgruppe zugeschnitten und inhaltlich fokussierter, da die KI innerhalb der ihr zugewiesenen Rolle agiert. Das eröffnet eine breite Palette an Möglichkeiten – von der Simulation von Expert:inneninterviews bis hin zur Erstellung kreativer Texte in einem bestimmten Tonfall.
Few-Shot Prompting
Was ist zu tun, wenn eine sehr spezifische Antwortstruktur, ein bestimmtes Format oder Muster in der Ausgabe der KI benötigt wird? Hier ist oft das Few-Shot Prompting der richtige Ansatz. Statt die KI ohne weitere Infos auf eine Aufgabe anzusetzen, werden ihr einige wenige, aber aussagekräftige Beispiele („Shots“) direkt im Prompt an die Hand gegeben.
Es werden also ein oder mehrere Beispiele für die gewünschte Eingabe-Ausgabe-Beziehung in den Prompt integriert, und zwar bevor die eigentliche neue Anfrage gestellt wird.
Ein praktisches Beispiel könnte so aussehen:
Prompt zum Kopieren
Klassifiziere die folgenden Kundenanfragen nach „Technischer Support“, „Rechnungsanfrage“ oder „Produktinformation“:
Beispiel 1: „Ich kann mich nicht einloggen.“ -> Klassifizierung: Technischer Support
Beispiel 2: „Wo finde ich meine letzte Rechnung?“ -> Klassifizierung: Rechnungsanfrage
Nun klassifiziere: „Hat das Modell XY eine Akkulaufzeit von mindestens 10 Stunden?“ -> Klassifizierung: ?
Diese Beispiele dienen der KI als eine Art Mini-Training direkt im Prompt. Sie erkennt das gewünschte Muster oder die erwartete Struktur aus diesen Vorlagen und kann dieses „Gelernte“ dann auf die neue, ähnliche Anfrage anwenden. Das ist ungemein hilfreich, wenn eine bestimmte Formatierung eingehalten werden soll, für Übersetzungsaufgaben mit spezifischem Stil oder immer dann, wenn die KI schnell auf neue, sehr spezifische Aufgaben angepasst werden soll, ohne gleich ein ganzes Modell neu trainieren zu müssen.
Die Kunst liegt hier in der Auswahl guter und vor allem repräsentativer Beispiele. Je mehr Beispiele gegeben werden, desto besser ist in der Regel das Ergebnis. Hier gilt es abzuwägen, wie viel Aufwand die Erstellung der Beispiele ist und wie groß der Nutzen davon ist. Im Zweifel beginnt man mit wenigen Beispielen und ergänzt dann mehr, wenn die KI den Vorstellungen noch nicht entspricht.
Chain-of-Thought Prompting
Gerade bei komplexen Aufgaben, die logisches Denken, Schlussfolgerungen oder mehrere aufeinander aufbauende Schritte erfordern, reicht eine schnelle, finale Antwort oft nicht aus. Es fördert das Verständnis, wenn bekannt ist, wie die KI zu ihrem Ergebnis gelangt ist. Genau hier setzt das Chain-of-Thought Prompting (CoT) an.
Die KI wird dabei explizit aufgefordert, ihre Überlegungen und Lösungswege Schritt für Schritt offenzulegen und jeden einzelnen Schritt logisch zu begründen, anstatt direkt das Endergebnis zu präsentieren.
Statt also nur zu fragen „Was ist das Ergebnis von X?“, könnte der Prompt so formuliert werden:
Prompt zum Kopieren
Ich stehe vor folgendem Problem: [Komplexe Problembeschreibung, z.B. eine Textaufgabe aus der Mathematik oder ein Logikrätsel]. Bitte löse dieses Problem und erkläre mir deinen Denkprozess Schritt für Schritt. Begründe jede deiner Annahmen und jeden Rechen- oder Logikschritt. Zeige mir deine Gedankenkette (Chain of Thought), die zur Lösung führt.
Diese Technik regt die KI an, einen strukturierten und nachvollziehbaren Gedankengang zu entwickeln. Das erhöht nicht nur die Transparenz und das Vertrauen in das Ergebnis, sondern kann tatsächlich auch die Qualität der Antwort bei anspruchsvollen, mehrstufigen Aufgaben verbessern. Das Modell wird quasi gezwungen, „laut zu denken“, was Fehler reduzieren kann.
Das ist besonders wertvoll für komplexe Problemlösungen und immer dann, wenn der Weg zum Ziel mindestens genauso wichtig ist wie das Ziel selbst. Mittlerweile gibt es spezielle Reasoning-Modelle, wie GPT-4o oder Gemini Flash Thinking, bei denen automatisch eine Version dieser Technik angewendet wird.
In Fällen, in denen möglicherweise kein Zugriff auf ein Reasoning-Modell besteht, etwa in einem kostenlosen Plan, kann das Chain-of-Thought Prompting aber eine gute Alternative sein.
Meta-Prompting
Die letzte hier vorgestellte Technik ist das Meta-Prompting. Was tun, wenn Unsicherheit besteht, ob der eigene Prompt schon wirklich gut ist oder ob das Maximum aus der KI herausgeholt wird? Hierfür gibt es eine sehr spannende und einfache Technik: das Meta-Prompting. Dabei geht es darum, die KI nicht nur als Antwortgeberin für die ursprüngliche Aufgabe zu nutzen, sondern sie auch als eine Art beratende Instanz einzusetzen, um den Prompt selbst zu optimieren.
Es wird also ein „Meta-Prompt“ formuliert, der die KI anweist, einen zuvor eingegebenen oder einen neu formulierten Prompt zu analysieren, zu bewerten und konkrete Verbesserungsvorschläge zu machen.
Das könnte so aussehen:
Prompt zum Kopieren
Ich möchte von dir eine kreative Produktbeschreibung für einen neuen nachhaltigen Kaffeebecher erhalten. Hier ist mein erster Prompt-Entwurf dafür: [Hier den eigenen Prompt einfügen, z.B. „Schreib eine Produktbeschreibung für einen Kaffeebecher.“]. Bewerte diesen Prompt bitte hinsichtlich seiner Klarheit, Präzision und der Wahrscheinlichkeit, dass er zu einer wirklich überzeugenden und einzigartigen Produktbeschreibung führt. Gib mir bitte 2-3 konkrete und umsetzbare Vorschläge, wie ich diesen Prompt verbessern könnte, um das gewünschte kreative Ergebnis zu erzielen. Welche zusätzlichen Informationen oder Anweisungen wären hilfreich?
Mit Meta-Prompting wird die Fähigkeit von KI-Modellen genutzt, Texte nicht nur zu generieren, sondern auch zu analysieren und zu bewerten. Es wird sozusagen ein KI-gestütztes Coaching für das eigene Prompt-Design in Anspruch genommen. Das kann helfen, die eigenen Prompts deutlich klarer, präziser und letztlich effektiver zu gestalten und so die Qualität der gesamten Interaktion mit der KI systematisch zu verbessern. Es ist auch allgemein sehr gut geeignet, um ganz nebenbei zu lernen, wie bessere Prompts formuliert werden – dies ist ein positiver Nebeneffekt.
Das waren fünf anfängerfreundliche Prompt-Techniken, die hoffentlich dabei helfen, die Kommunikation mit KI-Chatbots und Sprachmodellen auf ein professionelleres Level zu bringen und bessere Ergebnisse zu erzielen. Von der wichtigen Kontextualisierung über die Rollenverteilung bis hin zur schrittweisen Problemlösung und sogar der intelligenten Optimierung der eigenen Prompts – die Möglichkeiten sind vielfältig.
Wie bei jedem mächtigen Werkzeug kommt es auch hier auf den bewussten, bedachten und experimentierfreudigen Einsatz an. Nicht jede Technik passt zu jeder Aufgabe, aber allein die Kenntnis der Techniken kann enorm hilfreich sein.