Lange – in unserer quantenschnellen digitalen Welt also kaum mehr als ein Wimpernschlag – galt Prompt Engineering als KI-Königsdisziplin: der Versuch, mit einer perfekt formulierten Eingabe die bestmögliche Antwort aus dem Sprachmodell zu erzielen. Dazu gab es sogar Wettbewerbe, um mit so wenigen Iterationen wie möglich ans Ziel zu kommen. Es gab sogar ein passendes Internet-Meme: Jemand tüftelt ewig am perfekten Prompt, kommt kurz vor dem Absenden selbst auf die Lösung – eine charmante Erinnerung daran, dass KI manchmal nur den letzten Denkanstoß gibt.
Inzwischen zeigt sich: Der größere Hebel liegt im gezielten Aufbau einer Wissensbasis. Kurz gesagt: Kontext.
Genau hier setzt Context Engineering an, eine Methode, die auch in professionellen Workflows wie RAG eine zentrale Rolle spielt. Für Einsteiger bedeutet das: erst Hintergrundwissen bereitstellen, dann die eigentliche Aufgabe formulieren. Klarer: Context Engineering ist nicht nur ein neuer Trend – es ist der entscheidende nächste Schritt.
Der ‚Prompt‘ war eine der ersten Vokabeln in der KI-Welt – also das, was ins Chat-Fenster getippt wird.
Beispiele:
„Schreibe einen Witz über Katzen auf Motorrädern.“
„Erkläre Quantenphysik, als wäre ich vier.“
Diese Ein-Satz-Aufforderungen führten allerdings häufig zu dem typischen „So war das nicht gemeint“-Moment: wiederholtes Präzisieren, Korrigieren, Anpassen.
Prompt Engineering ging hier den entscheidenden Schritt: Die Anweisung wurde so geschärft, dass die KI direkt möglichst genau „versteht“, was gefordert ist – ohne endloses Nachbessern.
Dazu gehörte: Rollen festlegen, Formate vorgeben und (manchmal fragwürdige) Überzeugungstricks ausprobieren – wie der KI Schuldgefühle einreden. Fachlich bedeutet Prompt Engineering im Kern „die Kunst des klaren Briefings“: präzise, vollständig, ohne unnötigen Ballast.
Heute – und das ist eine persönliche Lernkurve – investiere ich deutlich weniger Energie in den einen „perfekten“ Prompt. Schon früh habe ich ChatGPT eher als Gesprächspartner genutzt als als reine Antwortmaschine. Die Ergebnisse waren oft ähnlich wie bei sorgfältig optimierten Prompts – nicht immer besser, aber der Austausch war flexibler und oft inspirierender.
Schnell zeigte sich für mich: Am zuverlässigsten arbeitet die KI, wenn sie zunächst mit relevantem Hintergrundwissen versorgt wird – und erst danach der konkrete Auftrag folgt. Für Artikel, Ideen oder Social-Media-Texte lasse ich das Modell daher zunächst recherchieren, Inhalte strukturieren oder Material sammeln. So steht ein solides Fundament, bevor die eigentliche Aufgabe beginnt.
Fachlich ähnelt dieser Ansatz dem sogenannten Prompt Chaining – nur eben direkt im Chat umgesetzt, ohne Zusatztools und für Einsteiger leicht nachvollziehbar.
Wie so oft in der Technologiebranche braucht auch dieser Ansatz einen prägnanten Namen: Context Engineering. Die Idee dahinter: Zusätzlich zur Aufgabe erhält die KI gezielt den Kontext, der wirklich relevant ist. Das können Artikel, Studien, Blogbeiträge oder Dokumente sein – in komplexeren Anwendungsfällen auch strukturierte Daten, Projektberichte oder API-Ergebnisse.
Der Unterschied zum klassischen Prompt: Man verlässt sich nicht allein auf das eingebaute Modellwissen (das nicht immer aktuell oder fehlerfrei ist), sondern stellt bewusst die Informationsbasis bereit, auf der gearbeitet werden soll. Das reduziert sowohl Halluzinationen und Bias. Kurz gesagt: bewusst aufbauen, schlank prompten, variabel nachladen – egal ob Blogartikel oder Marktanalyse.
1) Kontext aufbauen
Am Anfang steht die Informationsbasis: Die KI recherchiert relevante Inhalte, sichtet Quellen und fasst die Kernaussagen zusammen. Diese Ausgaben sollten immer geprüft werden – denn auch bei sorgfältiger Anweisung kann die KI Fehler machen.
Wichtig: Kontext ist nie vollkommen neutral. Wenn alle Quellen denselben Blickwinkel haben, spiegelt die KI genau diese Perspektive wider.
Beispiel:
„Recherchiere zum Thema Veränderungen der Aufmerksamkeitsspanne zwischen 2000&2025. Fasse die fünf aktuellsten Studien jeweils in 3–5 Sätzen (inkl. Erscheinungsjahr und Quelle) zusammen. Liste die Einflussfaktoren nach Kategorien auf.“ |
2) Arbeitsauftrag
Steht der Kontext, folgt der eigentliche Auftrag – klar, kompakt und mit allen wichtigen Parametern: Ziel, Format, Umfang, Tonalität. Rückfragen sollten ausdrücklich erlaubt sein.
Beispiel
„Schreibe auf Basis der recherchierten Inhalte einen Blogartikel (ca. 600 Wörter), für ein allgemein interessiertes Publikum, locker-informativ, leicht humorvoll, faktenbasiert. Verwende drei anschauliche Alltagsbeispiele. Stelle Rückfragen, falls Infos fehlen.“ |
3) Kontext bedienen
Kontext ist nicht statisch – er sollte während des Arbeitsprozesses ergänzt oder angepasst werden. Das kann bedeuten, neue Daten einzubinden, Definitionen zu präzisieren oder weitere Beispiele hinzuzufügen. So bleibt die Informationsbasis aktuell und konsistent.
Beispiel
„Füge aktuelle Smartphone-Nutzungsstatistiken (2024, mit Quelle) ein. Prüfe Definition von ‚Aufmerksamkeitsspanne‘ und ergänze Unterschiede. Füge ein Bildungsbeispiel hinzu.“ |
Wichtig ist, dass neue Informationen überprüft werden: Stützen sie die bisherigen Aussagen oder widersprechen sie ihnen? Ohne diese Kontrolle entstehen schnell unbemerkte Widersprüche – und plötzlich erklärt die KI, dass Smartphones die Aufmerksamkeitsspanne verlängern.
Prompt Engineering und Context Engineering sind keine Gegenspieler, sondern Partner. Ein gut formulierter Prompt sorgt für klare Anweisungen – eine solide Kontextbasis liefert die passenden Fakten und Rahmenbedingungen dazu. Erst in Kombination entstehen Ergebnisse, die sowohl präzise als auch praxisnah sind.
Prompt Engineering definiert wie die KI arbeiten soll, Context Engineering stellt sicher, womit sie arbeitet. Wer beides nutzt, reduziert Fehler, erhöht die Verlässlichkeit – und spart sich viele dieser „So war das nicht gemeint“-Momente.