Ihr Taschenbuch für Prompt Engineering: Wie man das meiste aus KI-Modellen herausholt

Originalquelle: Nate B. Jones auf Substack | Die folgenden Inhalte sind sinngemäß übersetzt und übertragen worden.

 

Haben Sie schon einmal ein Sprachmodell (wie ChatGPT, Bing, Claude oder neuerdings DeepSeek) um Hilfe gebeten und waren von den Ergebnissen enttäuscht? Vielleicht haben Sie eine Antwort erhalten, die vom Thema abweicht, oder etwas, das so langatmig ist, dass es unbrauchbar ist.

Die Realität ist, dass Sie mehr Einfluss haben, als Sie denken!

Dieser Artikel wurde als Einführung in das Prompt-Engineering geschrieben, damit Sie der KI das „Steuerrad“ in die Hand geben können, das sie braucht, um qualitativ hochwertige und gezielte Antworten zu produzieren. In diesem Artikel finden Sie nicht nur schnelle Tipps, sondern einen umfassenden Leitfaden, der bewährte Verfahren von Branchenführern wie OpenAI, Anthropic, Google, Meta und anderen zusammenfasst.

Warum Prompting wichtig ist

Large Language Models (LLMs) sind unglaublich vielseitig, aber auch wortwörtlich unglaublich. Wenn man LLMs fragt: „Erzähle mir etwas über Innovation“, werden die genau das tun - möglicherweise in einer äußerst unspezifischen Weise.

Wenn man genauer fragt, z. B.: Fasse die drei wichtigsten Innovationen im Bereich der erneuerbaren Energien seit 2020 in weniger als 75 Wörtern zusammen und konzentriere dich dabei auf Durchbrüche im Bereich der Solarenergie.

Plötzlich weiß das Modell genau, was es zu liefern hat.

Was macht also ein gutes Prompt aus?

Effizienz: Gute Prompts reduzieren das Hin und Her, das nötig ist, um das eigentliche Ziel zu erreichen.

Genauigkeit: Durch die Bereitstellung von Kontext reduziert man „Halluzinationen“ oder irrelevante Abzweigungen.

Verlässlichkeit: Eine konsistente Struktur in Prompts führt zu konsistenten, qualitativ hochwertigen Ergebnissen.

In Richtung einer grundlegenden Prompt-Struktur

Fast alle wichtigen LLM-Anleitungen (von OpenAIs GPT-4 über Anthropics Claude bis hin zu Googles Gemini) weisen auf eine ähnliche zugrunde liegende Architektur für erfolgreiches Prompting hin. Natürlich gibt es wichtige Unterschiede zwischen diesen Modellen. In diesem Beitrag über Prompting geht es jedoch darum, einen wirklich umfassenden Blick darauf zu werfen, was nötig ist, um Prompting im Jahr 2025 in allen LLMs gut zu machen.

 

In diesem Sinne sind hier die sechs Schlüsselelemente aufgezeigt:

“Chain-of-Thought” vs. Zusammengefasstes Begründen

Einer der größten Unterschiede bei der Verwendung von LLMs besteht darin, ob sie eine detaillierte „interne Argumentation“ oder nur eine kurze abschließende Erklärung liefern sollen. Einige fortgeschrittene Modelle, insbesondere o1 Pro, können in versteckten Schritten argumentieren. Andere können Erklärungen in Form von Gedankenketten (chain-of-thought, CoT) erstellen, die zeigen, wie das Modell zu einer Lösung gekommen ist.

 

Nebenbei bemerkt: Wir sprechen nicht genug über den Unterschied zwischen tiefgründig argumentierenden Modellen und Modellen, die CoTs als Teil der Antwort produzieren. Erstere (wie o1 Pro) lassen mehrere Token-Streams im Hintergrund laufen und führen eine gewisse Selektion der Ergebnisse mehrerer Token-Vorhersage-Streams durch. Letztere (wie o1 oder DeepSeek R1 oder Gemini Flash Thinking 2.0) erzeugen einen lesbaren CoT, der das Token-Vorhersagemuster des Modells zeigt, bevor sie eine lesbare Antwort erzeugen - aber sie lassen nicht unbedingt mehrere Next-Token-Prediction-Streams gleichzeitig laufen.

Abgesehen davon gibt es ein paar Feinheiten, die mit schlussfolgernden Modellen einhergehen, die bei traditionellen LLMs nicht so häufig auftauchen:

  • Zu viele verkettete Anfragen können das Modell verwirren oder die Leistung beeinträchtigen. Einige Modelldokumentationen (z. B. die OpenAI o1-Serie) raten davon ab, das Modell zu zwingen, jeden Schritt zu zeigen.
  • Kurze, klare Begründungen (z. B. "Erläutere die endgültige Logik in 2-3 Aufzählungspunkten") reichen oft aus, um den Benutzer zu informieren.
Was kann also bei Prompting-Modellen schief gehen?

Negativen Beispiele sind manchmal am nützlichsten, daher folgen hier einige spezifische Prompts, die man vermeiden sollte:

Detailliertes Beispiel: Anwendungsfall Berufsberater

Im Folgenden findet sich ein ausführlicheres Beispiel.

Nehmen wir an, es geht um einen Quereinsteiger, der in einem kleinen Start-up-Unternehmen gearbeitet hat und in die Rolle eines Projektmanagers in einem Unternehmen wechseln möchte. Es gibt 5 Stellenbeschreibungen von großen Unternehmen, in denen jeweils die Anforderungen aufgeführt sind. Außerdem hat der Quereinsteiger einen informellen Lebenslauf. Er möchte, dass die LLM:

1. Die Anforderungen der Rollen zusammenfasst (so dass man sie vollständig versteht).

2. Ihn über seinen Hintergrund befragt (um Informationen zu sammeln).

3. Seinen Hintergrund mit den Anforderungen vergleicht.

4. Kompetenzlücken identifiziert und Lösungen vorschlägt.

5. Eine Gesamtbewertung der Schwierigkeit abgibt ("minimal", "mäßig" oder "erheblich").

6. Das gesamte Gespräch gut strukturiert hält.

In diesem Prompt werden die Rolle, die Daten, die Beschränkungen und das Format Schritt für Schritt erklärt. Das Ergebnis? Eine gut strukturierte, relevante Antwort, die auf die tatsächlichen Bedürfnisse des Benutzers eingeht - und nicht ein zufälliges KI-Gefasel über Projektmanagement im Allgemeinen.

Alternative Prompt-Techniken
Debuggen der Eingabeaufforderung

Auch bei sorgfältiger Planung kann es vorkommen, dass man eine Antwort erhält, die nicht den Tatsachen entspricht.

Hierbei bieten sich die folgenden Schritte an:

1. Format überprüfen: Wurden Überschriften oder eine Aufzählung in die Eingabeaufforderung eingefügt? Wenn nicht, produziert das Modell möglicherweise einen riesigen Textblock.

2. Details hinzufügen oder entfernen: Manchmal geraten LLMs ins Straucheln, wenn Prompte zu allgemein gehalten sind. In anderen Fällen verzetteln sie sich in überflüssigen Details.

3. Explizite Neu-Formulieren des Ziels: Wenn das Modell vom Weg abgekommen ist.

4. Kürzer ist nicht immer besser: Wenn man sich zu kurz fasst (z. B. Analyse. Los.), wird die LLM Ihre Absicht erraten.

Warum besseres Prompting die Interaktion zwischen Mensch und LLM verbessert

Warum also die Mühe? Was sind die Vorteile eines besseren Promptings? Es ist wirklich wichtig, dass sich die Interaktion zwischen LLM und Mensch in eine Partnerschaft verwandelt.

Hier sind einige Dinge, die sowohl der orniginal Autor, als auch wir als wahr empfinden:

1. beschleunigt die Arbeit: Anstatt Aufgaben in mehreren Hin- und Her-Nachrichten zu klären, kann Klarheit in den Vordergrund gestellt werden und erhält fast sofort Ergebnisse.

2. Erzeugt umsetzbare Ergebnisse: Aufzählungslisten, Tabellen oder JSON bedeuten weniger Nachbearbeitung oder Umformatierung.

3. Fördert das Vertrauen: Qualitativ hochwertige, konsistente Antworten geben Gewissheit, dass das Modell Ihre Frage „versteht“ - was zu komplexeren oder kreativeren Anwendungsfällen führt.

4. Befähigt Nicht-Programmierer: Man braucht keine Programmierkenntnisse, um effektive Prompts zu erstellen. Man sollte Prompts wie eine Anleitung verstehen.

Abschließende Gedanken

Prompt Engineering muss nicht einschüchternd oder übermäßig technisch sein. Im Kern geht es darum, der KI mitzuteilen, wer man ist, was man will und wie es angegangen werden soll.

Die Dokumentationen aller großen KI-Anbieter beruhen auf demselben Prinzip. Für interessierte Leser: Sie können Ihre Fähigkeiten auf folgende Weise ausbauen:

  • Experimentieren: Man beginnt mit kurzen Aufgaben, verfeinert seine Prompts, bis die Antwort genau Ihren Vorstellungen entspricht.
  • Lernen Sie von offiziellen Anleitungen: OpenAI, Anthropic, Microsoft, Google, Meta und andere stellen Verfahren zur Verfügung, die oft die gleiche universelle Struktur aufweisen.
  • Erstellen von wiederverwendbaren Vorlagen: Wenn man einen Arbeitsablauf habt - z. B. das Zusammenfassen von Artikeln oder das Analysieren von Lebensläufen - verwandelt man seine Eingabeaufforderung in eine Vorlage zum Ausfüllen von Formularen. Je öfter man diese verwendet, desto konsistenter werden Ergebnisse sein.

Mit den Tipps und Erkenntnissen aus diesem Artikel sollten man auf dem besten Weg sein, aussagekräftige Prompts zu erstellen, die die gewünschte Klarheit, Genauigkeit und Kreativität liefern.

 

Viel Spaß beim Prompten!