Prompt-Engineering-Techniken: Leitfaden zur LLM-Optimierung
Prompt Engineering ist die Kunst und Wissenschaft, Eingaben systematisch so zu gestalten, dass KI-Modelle die gewünschten Ausgaben erzeugen. Korrekte Prompt-Strategien können die Modellleistung um bis zu 50 % steigern.
Grundlagen des Prompt Engineerings
Aufbau eines Prompts
Ein effektiver Prompt besteht aus den folgenden Komponenten:
- Systemanweisung: Rolle und Verhaltensregeln des Modells
- Kontext: Hintergrundinformationen zur Aufgabe
- Beispiel(e): Beispiele für das gewünschte Ausgabeformat
- Aufgabe: Konkrete Anfrage oder Frage
- Ausgabeformat: Erwartete Struktur der Antwort
Grundstruktur eines Prompts
1[Role Definition] 2You are a {field of expertise} expert. 3 4[Context] 5{Relevant information} 6 7[Task] 8{Specific request} 9 10[Format] 11{Expected output format}
Grundlegende Prompt-Techniken
1. Zero-Shot Prompting
Direkte Definition der Aufgabe ohne Beispiele:
Summarize the following text: {text}
Anwendungsfälle:
- Einfache Aufgaben
- Allgemeinwissensfragen
- Klassifikation
2. Few-Shot Prompting
Aufgabendefinition mit Beispielen:
1Text: "This product is great, I am very satisfied" 2Sentiment: Positive 3 4Text: "It was a terrible experience, I do not recommend it" 5Sentiment: Negative 6 7Text: "It's okay for the price" 8Sentiment: ?
Best Practices:
- 3–5 Beispiele sind normalerweise ausreichend
- Verschiedene Edge Cases hinzufügen
- Beispiele in zufälliger Reihenfolge anordnen
3. Chain-of-Thought (CoT)
Schrittweises Denken:
1Question: A store has 15 apples. 8 apples were sold, 2then 6 more apples arrived. How many apples are there? 3 4Let's think step by step: 51. Initially there are 15 apples 62. 8 apples sold: 15 - 8 = 7 apples left 73. 6 apples arrived: 7 + 6 = 13 apples 8 9Answer: 13 apples
4. Self-Consistency
Verschiedene Denkwege für dieselbe Frage:
1Solve this problem in 3 different ways and choose the most consistent answer: 2 3[Problem]
5. Tree of Thoughts (ToT)
Verzweigter Gedankbaum:
1Problem: {complex problem} 2 3Thought 1: {approach A} 4 → Sub-thought 1.1: {detail} 5 → Sub-thought 1.2: {detail} 6 7Thought 2: {approach B} 8 → Sub-thought 2.1: {detail} 9 10Evaluate and select the most suitable path.
Erweiterte Techniken
ReAct (Reasoning + Acting)
Schleife aus Denken und Handeln:
1Question: How many times larger is Istanbul's population than Paris? 2 3Thought: I need to find the population of both cities 4Action: [search] Istanbul population 5Observation: Istanbul population ~16 million 6 7Thought: Now I need to find Paris population 8Action: [search] Paris population 9Observation: Paris population ~2.2 million 10 11Thought: I can calculate the ratio 12Action: [calculate] 16 / 2.2 13Observation: 7.27 14 15Answer: Istanbul's population is approximately 7.3 times larger than Paris.
Constitutional AI Prompting
Definition ethischer und sicherheitsrelevanter Regeln:
1System: You are a helpful assistant. 2 3Rules: 41. Do not generate harmful content 52. Do not share personal information 63. Do not help with illegal activities 74. Always be honest 8 9User question: {question}
Role Prompting
Definition eines spezifischen Fachgebiets:
1You are a cybersecurity expert with 20 years of experience. 2You have worked as a CISO in Fortune 500 companies. 3You can explain technical details clearly and understandably. 4 5User's question: {question} 6## Strategien zur Prompt-Optimierung 7 8### 1. Erhöhung der Spezifität 9 10❌ Schlecht:
Write a blog post
✅ Gut:
Target audience: Software developers Topic: Docker container security Length: 1500-2000 words Tone: Technical but accessible Format: Introduction, 5 main sections, conclusion
1 2### 2. Bestimmung des Ausgabeformats 3
Provide your response in this JSON format: { "summary": "string", "key_points": ["string"], "next_steps": ["string"], "confidence_score": number }
1 2### 3. Negatives Prompting 3 4Unerwünschtes Verhalten spezifizieren: 5
Do NOT do the following:
- Give speculative information
- Make claims without citing sources
- Lead the user
- Give excessively long answers
1 2### 4. Verwendung von Abgrenzern 3 4Abschnitte klarstellen: 5
###CONTEXT### {context information}
###TASK### {work to be done}
###FORMAT### {output format}
1 2## Modellspezifische Optimierungen 3 4### Für GPT 5
- Use System message effectively
- Activate JSON mode: response_format={"type": "json_object"}
- Temperature: 0.7-1.0 for creative tasks, 0.1-0.3 for analytical
1 2### Für Claude 3
- Use XML tags: <context>, <task>, <format>
- Put important information at the end in long context
- Evaluate Thinking tags
1 2### Für Gemini 3
- Optimize for multimodal prompts
- Up-to-date information with Grounding
- Adjust Safety settings
1 2## Prompt-Testing und Iteration 3 4### A/B-Testing-Framework 5
Prompt A: {version 1} Prompt B: {version 2}
Metrics:
- Accuracy: %
- Consistency: 1-5
- Latency: ms
- Token usage: #
1 2### Prompt-Versionierung 3
prompt_v1.0: First version prompt_v1.1: Typo corrections prompt_v2.0: CoT added prompt_v2.1: Output format changed
1 2## Enterprise Prompt Management 3 4### Erstellung einer Prompt-Bibliothek 5
/prompts /classification - sentiment_analysis.json - intent_detection.json /generation - blog_writer.json - code_reviewer.json /extraction - entity_extraction.json - data_parsing.json
1 2### Prompt-Template-System 3 4```python 5class PromptTemplate: 6 def __init__(self, template, variables): 7 self.template = template 8 self.variables = variables 9 10 def render(self, **kwargs): 11 return self.template.format(**kwargs) 12 13# Usage 14sentiment_prompt = PromptTemplate( 15 template="Analyze sentiment: {text}", 16 variables=["text"] 17)
Häufige Fehler und Lösungen
Fehler 1: Übermäßig vager Prompt
Problem: Das Modell versteht nicht, was Sie wollen
Lösung: Fügen Sie spezifische Anweisungen und Beispiele hinzu
Fehler 2: Sehr langer Prompt
Problem: Token-Limit überschritten, Kosten steigen
Lösung: Entfernen Sie unnötige Informationen, verwenden Sie eine Zusammenfassung
Fehler 3: Widersprüchliche Anweisungen
Problem: Modell verhält sich inkonsistent
Lösung: Regeln priorisieren und klarstellen
Fehler 4: Halluzination
Problem: Modell liefert erfundene Informationen
Lösung: Grounding, Zitierpflicht, niedrigere Temperatur
Fazit
Prompt Engineering ist ein entscheidender Faktor für den Erfolg von KI-Projekten. Mit den richtigen Techniken und einem systematischen Ansatz können Sie die Modellleistung deutlich steigern.
Bei Veni AI entwickeln wir maßgeschneiderte Prompt-Strategien für unsere Unternehmenskunden. Kontaktieren Sie uns für professionelle Unterstützung.
