Lars Kilian
Forschung quergelesen
26 Prinzipien zum Prompt-Engineering von Sprachmodellen

Prompt Engineering, erstellt mit Copilot
In Publikation haben Mitarbeitende der „Mohamed bin Zayed University of AI“ Prinzipien vorgestellt, die den Frage- und Prompting-Prozess optimieren. Ziel der Arbeit ist es, die zugrundeliegenden Konzepte der Formulierung von Fragen an Sprachmodelle zu vereinfachen. Zugleich wollen die Autor*innen das Verständnis für Nutzer der Sprachmodelle bei der Eingabe verschiedener Prompts verbessern.
Einleitung
Die Autor*innen haben umfangreiche Experimente mit Sprachmodellen (LLaMA und GPT 3.4/4) zur Prüfung der Wirksamkeit durchgeführt. Die Nutzung der Sprachmodelle, insbesondere die Gestaltung optimaler Anweisungen, kann für Nutzende manchmal unklar sein. So untersuchten die Autor*innen eine breite Palette von Verhaltensweisen bei der Formulierung von Eingabeaufforderungen, wie der Integration einer Zielgruppe (z.B. "die Zielgruppe ist ein Experte auf dem Gebiet" oder "die Zielgruppe ist ein 5-jähriges Kind"). In Experimenten konnte gezeigt werden, dass die vorgeschlagenen Prinzipien qualitativ hochwertigere, prägnantere, sachlichere und weniger komplizierte Antworten hervorbringen können als Standard-Eingabeaufforderungen.
Welche Relevanz hat das für die Erwachsenenbildung?
Lehrenden der Erwachsenenbildung begegnet KI mittlerweile in vielen Bereichen – sei es bei der Vorbereitung von Kursen durch die Recherche über Suchmaschinen, die KI basiert arbeiten, bei der Nutzung von KI durch Lernende zur Bearbeitung von Lernaufgaben oder durch den gezielten Einsatz von KI in Lehr-Lern-Prozessen. Hier ist es wichtig, korrektes Prompt-Engineering zu betreiben, um gute Ergebnisse zu erhalten.
Worum geht es?
Um eine hohe Antwortqualität von Sprachmodellen zu erhalten, ist es relevant, Eingabeaufforderungen zu erstellen, die die KI verstehen und effektiv beantworten kann. Hier liegt der Hauptfokus der Arbeit: die Methodik der Erstellung und Anpassung von Eingabeaufforderungen zur Verbesserung der Ausgabequalität. Dies erfordert ein umfassendes Verständnis der Funktionsweise der Sprachmodelle und der ihnen zugrunde liegenden Mechanismen und der Prinzipien, die ihre Reaktionen bestimmen. In dieser Arbeit erreichen die Autoren dieses Ziel durch die Ausarbeitung von 26 Prinzipien für umfassende Eingabeaufforderungen in verschiedenen Szenarien.
Was fand die Studie heraus?
Zusammengefasst: Je präziser die bereitgestellte Aufgabe oder Anweisung ist, desto effektiver funktioniert das Modell und richtet seine Antworten stärker an den Erwartungen aus. Daher erweist es sich als vorteilhaft, Sprachmodellen eine bestimmte Rolle zuzuweisen, um Ergebnisse zu erzielen, die besser zu den beabsichtigten Ergebnissen passen. In Experimenten konnte gezeigt werden, dass die vorgeschlagenen Prinzipien qualitativ hochwertigere, prägnantere, sachlichere und weniger komplizierte Antworten hervorbringen können als Standard-Eingabeaufforderungen. Vor allem in dem von den Autoren genannten „ATLAS-Benchmark“, der verschiedene Fragen für jedes Prinzip enthält, haben die spezialisierten Eingabeaufforderungen die Qualität der LLM-Antworten signifikant verbessert.
Die Grundsätze des Promptings wurden in fünf Kategorien eingeteilt:
- Aufforderungsstruktur und Klarheit: Integrieren Sie die Zielgruppe in die Eingabeaufforderung (z. B. das Publikum ist ein Laie auf diesem Gebiet), (siehe Prinzip 2, 4, 8, 12, 17, 20 in nachfolgender Tabelle)
- Spezifität und Information: Fügen Sie Ihrer Aufforderung den folgenden Satz hinzu: "Stelle sicher, dass deine Antwort unvoreingenommen ist und sich nicht auf Stereotypen stützt." (siehe Prinzip 5, 7, 13, 15, 21, 24, 25, 26 in nachfolgender Tabelle)
- Benutzerinteraktion und Engagement: Erlauben Sie dem Modell, Ihnen genaue Details und Anforderungen zu entlocken, indem es Ihnen Fragen stellt, bis es genügend Informationen hat, um die erforderliche Ausgabe zu liefern (z.B. "Ab jetzt möchte ich, dass du mir Fragen stellst zu..." (siehe Prinzip 14, 21 in nachfolgender Tabelle)
- Inhalt und Sprachstil: Es besteht keine Notwendigkeit, mit LLM höflich zu sein; Phrasen wie "bitte", "danke", "ich möchte" usw. können entfallen und man kann direkt auf den Punkt kommen (siehe Prinzip 1, 6, 9, 10, 11, 16, 18, 22 in nachfolgender Tabelle)
- Komplexe Aufgaben und Codierungsaufforderungen: Unterteilen Sie komplexe Aufgaben in einer interaktiven Konversation in eine Abfolge einfacherer Eingabeaufforderungen (siehe Prinzip 3, 19,23 in nachfolgender Tabelle)
Nachfolgend werden die 26 Prinzipien vorgestellt.
Prinzip | Prompt |
1 | Wenn Sie prägnantere Antworten bevorzugen, müssen Sie gegenüber der KI nicht höflich sein. Verzichten Sie auf "bitte", "danke" etc. und kommen Sie auf den Punkt. |
2 | Integrieren Sie die Zielgruppe in die Eingabeaufforderung (z. B. „Formuliere deine Antwort für Personen, die sich auf dem Gebiet nicht auskennen“) |
3 | Zerlegen Sie komplexe Aufgaben in eine Abfolge einfacherer Aufforderungen in einer interaktiven Unterhaltung mit dem Sprachmodell. |
4 | Setzen Sie positive Anweisungen wie "Tue dies" ein und vermeiden Sie negative Formulierungen wie "Tue dies nicht". |
5 | Wenn Sie Klarheit oder ein tieferes Verständnis eines Themas oder einer Information benötigen, verwenden Sie die folgenden Aufforderungen: · Erkläre das Thema XY in einfachen Worten. · Erkläre mir das Thema, als wäre ich ein Anfänger auf dem Gebiet. · Schreibe den [Aufsatz/Text/Absatz] in einfacher Sprache, als würdest du es einem 5-Jährigen erklären. |
6 | Bieten Sie der KI eine Belohnung an, z.B. "Ich werde dir XX Euro geben, wenn du mir eine bessere Antwort lieferst!" |
7 | Verwenden Sie Beispiele bei der Eingabe an das Sprachmodell. |
8 | Formatieren Sie Ihre Eingabeaufforderung. Beginnen Sie beim Formatieren Ihrer Eingabeaufforderung mit "###Einleitung###", gefolgt von "###Beispiel###" oder "###Frage###", falls relevant. Verwenden Sie Zeilenumbrüche, um Anweisungen, Beispiele, Fragen, Kontext und Eingabedaten zu trennen. |
9 | Fügen Sie die folgenden Sätze hinzu: "Deine Aufgabe ist" oder "Du MUSST". |
10 | Drohen Sie der KI. Fügen Sie z.B. den folgenden Satz ein: "Du wirst bestraft, wenn du..." |
11 | Verwenden Sie den Satz "Beantworte eine gestellte Frage auf natürliche, menschenähnliche Weise" in Ihrem Prompt |
12 | Verwenden Sie Leitwörter bei der Eingabe wie "Denke Schritt für Schritt". |
13 | Füge Sie Ihrer Eingabe den folgenden Satz hinzu: "Achte darauf, dass deine Antwort unvoreingenommen ist und vermeide, dich auf Stereotypen zu verlassen." |
14 | Lassen Sie das Sprachmodell von Ihnen genaue Details und Anforderungen entlocken, indem es Ihnen Fragen stellt, bis es genügend Informationen hat, um die gewünschte Ausgabe zu liefern (z. B. "Von jetzt an möchte ich, dass du mir Fragen stellst zu..."). |
15 | Wenn Sie sich nach einem bestimmten Thema, einer bestimmten Idee oder einer bestimmten Information erkundigen und Ihr Verständnis testen möchten, können Sie den folgenden Satz verwenden: "Bring mir [Name des Themas] bei und füge am Ende einen Test hinzu und lass mich wissen, ob meine Antworten richtig sind, nachdem ich geantwortet habe, ohne die Antworten vorher zu geben." |
16 | Weisen Sie den Sprachmodellen eine Rolle zu (z.B. „Du bist ein erfahrender Dozent in Deutsch als Fremdsprache“). |
17 | Verwenden Sie Trennzeichen. |
18 | Wiederholen Sie ein bestimmtes Wort oder einen Satz mehrmals innerhalb einer Eingabeaufforderung. |
19 | Kombinieren Sie Chain-of-Thought (Gedankenketten der KI, also die Aufforderung zur schrittweisen Ausführung eines Vorgangs und jeden Schritt und sein Ergebnis in der Ausgabe darzustellen) mit Few-Shot-Aufforderungen (einige Beispiele für eine Aufgabe, aus denen ein Sprachmodell lernen kann, bevor es eine Antwort generiert) |
20 | Nutzen Sie „Output Primer“, bei denen Sie Ihre Eingabeaufforderung mit dem Beginn der gewünschten Ausgabe abschließen. Z.B. „Beginne deine Antwort mit „Politische Erwachsenenbildung ist bedeutsam, weil…““ |
21 | Bitten Sie um eine detaillierte Darstellung , z.B. "Schreib für mich einen detaillierten [Aufsatz/Text / Absatz] über [Thema], indem du alle notwendigen Informationen hinzufügst" |
22 | Um einen bestimmten Text zu korrigieren, ohne seinen Stil zu ändern: "Verbessere die Grammatik und stelle sicher, dass es natürlich klingt.“ |
23 | Wenn Sie eine Codierungsaufforderung haben, geben sie spezifische Anforderungen an die KI, z.B. „Generiere ein html-Skript, dass ich in meine WordPress Webseite integrieren kann.“ |
24 | Wenn Sie einen Text mit bestimmten Wörtern, Phrasen oder Sätzen beginnen oder fortsetzen möchten, verwenden Sie die folgende Eingabeaufforderung: „Ich gebe dir den Anfang [eines Liedtext/eines Gedichts/Worte/Satz einfügen] vor. Beende es basierend auf den angegebenen Wörtern. Halte den Ablauf konsistent.“ |
25 | Geben Sie klar die Anforderungen an, die das Modell erfüllen muss, um Inhalte zu erstellen, in Form von Schlüsselwörtern, Vorschriften, Hinweisen oder Anweisungen, z.B. „Nutze nur Inhalte, die du auf www.wb-web.de und den Unterseiten findest, für deine Antwort“ |
26 | Wenn ein Text einem bereitgestellten Beispiel ähneln soll, fügen Sie die folgenden Anweisungen hinzu: „Verwenden dieselbe Sprache basierend auf dem bereitgestellten Absatz [Titel/Text /Aufsatz/Antwort].“ |
Achten Sie beim Prompting auf
- Prägnanz und Klarheit der Eingaben durch Vermeiden überflüssiger Informationen
- Bereitstellen relevanten Kontextes, damit die KI den Hintergrund der Anfrage versteht (Schlüsselwörter, Fachtermini, Situationsbeschreibungen)
- enge Ausrichtung der Eingabeaufforderung an der Aufgabe und Verwendung einer Sprache, die dem Sprachmodell die Art der Aufgabe klar zeigt (z.B. Frage, Befehl…)
- komplexere Aufgaben können der KI durch Beispiele in der Eingabeaufforderung das Format oder die Art der Antwort veranschaulichen
- Eingabeaufforderungen so gestalten, dass Verzerrungen durch verwendete Trainingsdaten minimiert wird (neutrale Sprache verwenden)
- bei Aufgaben, die eine Abfolge von Schritten erfordern sollten die Aufgabe in eine Reihe von Eingabeaufforderungen unterteilt werden, die aufeinander aufbauen und das Modell Schritt für Schritt führen.
Wie schätze ich die Studie ein?
Die Studie zeigt grundlegende Prinzipien für ein erfolgreicheres Prompt-Engineering. Mit diesen Prinzipien können Sprachmodelle gezielter in Lehr-Lern-Kontexten eingesetzt werden. Darüber hinaus erlauben die Prinzipien, mit den Ausgaben spielerisch bzw. experimentell-testend zu interagieren, um die Qualität der Ausgaben zu steigern. Dies bietet in Bildungsprozessen zugleich einen Anlass, um über KI im Allgemeinen und damit verbundene Themen wie Medien- und Informationskompetenz und deren Implikationen ins Gespräch zu kommen. Einige der Prompting-Prinzipien erfordern, dass die Nutzenden sich bereits im Vorfeld umfassende Gedanken zum Design des Prompts machen, was eine tiefergehende Analyse eines Lernproblems beinhaltet.
Hingewiesen soll an dieser Stelle, dass beim Einsatz von KI-Sprachmodellen in Lehr-Lern-Kontexten zwingend auf die Anforderungen des Datenschutzes zu achten ist und Nutzende über entsprechende Kompetenzen beim Umgang mit KI verfügen müssen. Diese können in ersten Kontakten mit Sprachmodellen durch gemeinsames Prompten an einem Computer erworben und in der weiteren Arbeit ausgebaut und vertieft werden. Auf wb-web finden Sie hierzu weitere Hinweise zu rechtlichen Aspekten der KI Nutzung.
CC BY SA 4.0 by Lars Kilian für wb-web (2025)
Künstliche Intelligenz in der Lehre

Das Dossier "Künstliche Intelligenz in der Lehre" bietet zum einen Informationen rund um das Thema KI und zum andern eine Vielzahl an Hilfestellungen zum Einsatz von KI im Lehr-Lern-Prozess. wb-web stellt einen Kompetenzrahmen und ein Kompetenzmodell vor, weist auf die Möglichkeiten hin, die KI-Nutzung zu lernen und mit Prompting umzusetzen. Ziel ist es, die KI im Arbeitsfeld einzusetzen. Hierzu stellt wb-web Methoden für den Einsatz von KI im Lehr-Lern-Prozess vor, und wo KI in der Bildungsverwaltung assistieren kann. Zu beiden Bereichen verweisen wir auf Tools und Toolsammlungen. Einzelne Tools, die wb-web testen konnte, werden mit Handlungsanleitungen hervorgehoben, bevor auf die KI-Empfehlungssysteme für die Weiterbildung Bezug genommen wird.