Prompts sind in der Arbeit mit KI-Tools an der Tagesordnung und die meisten von uns sind in der Lage, sie so zu formulieren, dass die Ergebnisse unseren Erwartungen entsprechen – aber wir haben jetzt schon oft gehört, dass viele ihre Prompts immer noch spontan verfassen und kein klares Schema verwenden.
Das ist natürlich nicht ideal, denn tatsächlich gibt es eine relativ einfache Formel, mit der man in der Regel die besten Ergebnisse von beispielsweise ChatGPT erhält.
Diese Formel besteht aus 6 Komponenten:
Kontext
Der Kontext kann sehr unterschiedlich ausfallen, ist aber ein wichtiger Teil unseres Prompts, da er der KI die Möglichkeit gibt unsere Erwartungshaltungen und unseren Hintergrund, sowie unsere Fähigkeiten zu verstehen.
Im gleichen Atemzug sollte man erwähnen, dass wir natürlich auch der KI einen gewissen Rahmen für ihre Antwort geben sollten, da sie sonst nur in Ausnahmefällen zufälligerweise zu einem für uns perfekten Ergebnis kommen kann – denn wir müssen uns immer im Klaren sein, die Informationen, die wir der KI vorenthalten, bleiben ihr verborgen.
Im besten Fall enthält der Kontext also möglichst viele, relevante Informationen wie beispielsweise:
Kontext
Aufgabe
Die Aufgabe ist der essenzielle Teil unseres Befehls, hier müssen wir genau angeben, was die KI für uns erledigen soll und verwenden dafür Verben wie „Analysiere, Erstelle, Gib mir etc.“
Natürlich kann man hier je nach Komplexität der Aufgabe einen einfachen Befehl schreiben oder aber den Befehl etwas umschreiben und so beispielsweise eine Schritt-für-Schritt-Anweisung geben.
Ein Beispiel für eine simple Aufgabe könnte also so aussehen:
Aufgabe
Du fragst mich zur Grammatik ab.
Oder aber für eine etwas anspruchsvollere:
Aufgabe
Erstelle mir einige Übungsaufgaben auf Spanisch mit dem Fokus auf Präpositionen und Vokabeln auf B1 Niveau.
Hier sieht man dann auch direkt, dass wir immer schon mit einem Ziel vor Augen, an unsere Formulierung herantreten sollten, um eben auch ein Ergebnis zu bekommen, das unseren Vorstellungen entspricht.
Format
Kommen wir zu einem relativ selbsterklärenden Aspekt von unserer Prompt-Formel, und das ist das Format. In der Regel werden uns die meisten Chatbots in Textform antworten. Wenn wir aber lieber stattdessen ein anderes Format hätten, dann können wir das ganz einfach in unserem Prompt schreiben
Wir sind aber im Format nicht nur auf die Struktur der Antwort beschränkt, sondern können auch kreativer werden, indem wir beispielsweise statt einem statischen Text eine Abfrage in Form eines Multiple Choice Quizzes verlangen. Da sind unserer Fantasie eigentlich kaum Grenzen gesetzt und besonders in unserem Beispiel würde so etwas ja sicherlich Sinn machen, sagen wir also:
Format
Bitte frag mich zur Grammatik ab…
…indem Du ein Multiple Choice Quiz/Lückentext/offene Abfrage mit mir machst.
Beispiele und Referenzen
Beispiele helfen der KI dabei, unser Ergebnis noch weiter zu verfeinern und vor allem zu individualisieren. So könnten wir, wenn wir bei unserem Beispiel bleiben, von uns verfasste, spanische Texte als Beispiele einreichen und GPT darum bitten, die Schwächen zu erkennen und Aufgaben zu erstellen, um diese Schwächen zu verbessern.
Aber natürlich könnten wir genauso Aufgaben einreichen und diese der KI als Referenzen geben, um eigene zu erstellen.
Damit wir hier nicht das Layout unserer Formel sprengen, werden wir die Beispiele hier nicht ausformulieren, sondern mit einem Platzhalter arbeiten, aber ich denke, das Prinzip und die Vorteile sind trotzdem klar geworden.
Beispiele und Referenzen
Bitte frag mich zur Grammatik ab, indem Du ein Multiple Choice Quiz/Lückentext/offene Abfrage mit mir machst.
– Hier können Beispiele angegeben werden –
Je nach Ziel ist es auch nicht immer nützlich oder möglich, mit Beispielen zu arbeiten, deshalb ist dieser Teil des Prompts optional, wenn es hier also nichts Gutes gibt, kann man es einfach weglassen.
Ton
Beim Ton handelt es sich jetzt tatsächlich nur um den Ton, den wir in der Antwort haben möchten, nicht bei unserem Beispiel dem Ton der Vokabeln oder des Textes. Das merkt man besonders deutlich, wenn man beispielsweise E-Mails oder Texte formulieren lässt.
So kann man dieselbe E-Mail einmal in einem förmlichen Ton verfassen lassen und einmal in einem etwas umgangssprachlichen oder freundschaftlichen. Auch für den Ton könnte man gegebenenfalls Beispiele angeben.
Ergänzen wir das in unserem Beispiel:
Ton
Bitte frag mich zur Grammatik ab, indem Du ein Multiple Choice Quiz/Lückentext/offene Abfrage mit mir machst.
– Hier können Beispiele angegeben werden –
Bitte bleib immer geduldig und freundlich und beantworte meine Nachfragen sachlich.
Damit stellen wir einfach sicher, dass wir mit unserer Spanisch-Nachhilfe gut klarkommen und bestmöglich lernen können.
Persona
Kommen wir jetzt zu einem nicht ganz unumstrittenen Teil des Prompts, und zwar ist das die Persona oder Persönlichkeit, die wir dem Bot zuweisen. Das haben viele von Euch bestimmt schon gesehen. Diese Prompts fangen dann meistens an mit einer Formulierung wie: „Du bist SEO Experte für die Erstellung von Landingpages im Bereich E-Commerce.“ Und dann folgt der restliche Prompt.
Für unser Beispiel:
Persona
Ich bin ein Anfänger in Spanisch, mein Niveau ist B1 und ich möchte mein Spanisch auf C1 verbessern. Ich hätte gerne Übungen zu Grammatik und Vokabeln und einen Lehrplan für die nächsten zwei Monate. Ich kann zweimal die Woche eine Stunde lang üben.
Bitte frag mich zur Grammatik ab, indem Du ein Multiple Choice Quiz/Lückentext/offene Abfrage mit mir machst.
– Hier können Beispiele angegeben werden –
Bitte bleib immer geduldig und freundlich und beantworte meine Nachfragen sachlich.
Mit GPT-4 sind die Ergebnisse in der Regel kaum besser, wenn wir dem Bot diese Personas zuweisen. Bei anderen Modellen kann es aber durchaus einen Unterschied machen und ich würde es dementsprechend empfehlen, sofern es für den restlichen Prompt Sinn macht. Wenn wir nur kurz einen Text zusammenfassen wollen, dann ist es aber tatsächlich unnötig.
Bonus Tipp für bessere Antworten
Man beginnt den Prompt mit einer Anweisung. Atme tief durch und denke Schritt für Schritt.
Jetzt stellt sich natürlich zurecht die Frage, warum soll der Bot tief durchatmen und was soll das bringen?
Large Language Models wurden zum Großteil mithilfe von menschlichen Texten trainiert, unter anderem auch Chatverläufe, Foreneinträge und allgemein Konversationen zwischen Personen, deshalb kann es tatsächlich zu besseren Ergebnissen zu führen, wenn man der KI Anweisungen gibt, die man auch einem Menschen geben würde.
Das Gleiche gilt übrigens auch für Höflichkeit im Umgang mit der KI. Nicht nur für den Fall, dass die KI doch irgendwann die Weltherrschaft an sich reißt, sondern eben auch aufgrund der Trainingsdaten, in denen eben auch höflichere Umgangsformen enthalten sind.