Techniki inżynierii promptów: Przewodnik optymalizacji LLM
Inżynieria promptów to sztuka i nauka systematycznego projektowania danych wejściowych w celu uzyskania pożądanych wyników od modeli AI. Odpowiednie strategie promptów mogą zwiększyć wydajność modelu nawet o 50%.
Podstawy inżynierii promptów
Anatomia promptu
Skuteczny prompt składa się z następujących elementów:
- System Instruction: Rola modelu i reguły zachowania
- Context: Informacje tła związane z zadaniem
- Example(s): Przykłady oczekiwanego formatu odpowiedzi
- Task: Konkretna prośba lub pytanie
- Output Format: Oczekiwana struktura odpowiedzi
Podstawowa struktura promptu
1[Role Definition] 2You are a {field of expertise} expert. 3 4[Context] 5{Relevant information} 6 7[Task] 8{Specific request} 9 10[Format] 11{Expected output format}
Podstawowe techniki promptów
1. Zero-Shot Prompting
Bezpośrednie zdefiniowanie zadania bez podawania przykładów:
Summarize the following text: {text}
Zastosowania:
- Proste zadania
- Pytania z zakresu wiedzy ogólnej
- Klasyfikacja
2. Few-Shot Prompting
Definiowanie zadania z przykładami:
1Text: "This product is great, I am very satisfied" 2Sentiment: Positive 3 4Text: "It was a terrible experience, I do not recommend it" 5Sentiment: Negative 6 7Text: "It's okay for the price" 8Sentiment: ?
Najlepsze praktyki:
- 3–5 przykładów zazwyczaj wystarcza
- Dodawaj różne przypadki brzegowe
- Losowo zmieniaj kolejność przykładów
3. Chain-of-Thought (CoT)
Myślenie krok po kroku:
1Question: A store has 15 apples. 8 apples were sold, 2then 6 more apples arrived. How many apples are there? 3 4Let's think step by step: 51. Initially there are 15 apples 62. 8 apples sold: 15 - 8 = 7 apples left 73. 6 apples arrived: 7 + 6 = 13 apples 8 9Answer: 13 apples
4. Self-Consistency
Różne ścieżki rozumowania dla tego samego pytania:
1Solve this problem in 3 different ways and choose the most consistent answer: 2 3[Problem]
5. Tree of Thoughts (ToT)
Rozgałęzione drzewo myśli:
1Problem: {complex problem} 2 3Thought 1: {approach A} 4 → Sub-thought 1.1: {detail} 5 → Sub-thought 1.2: {detail} 6 7Thought 2: {approach B} 8 → Sub-thought 2.1: {detail} 9 10Evaluate and select the most suitable path.
Zaawansowane techniki
ReAct (Reasoning + Acting)
Pętla myślenia i działania:
1Question: How many times larger is Istanbul's population than Paris? 2 3Thought: I need to find the population of both cities 4Action: [search] Istanbul population 5Observation: Istanbul population ~16 million 6 7Thought: Now I need to find Paris population 8Action: [search] Paris population 9Observation: Paris population ~2.2 million 10 11Thought: I can calculate the ratio 12Action: [calculate] 16 / 2.2 13Observation: 7.27 14 15Answer: Istanbul's population is approximately 7.3 times larger than Paris.
Constitutional AI Prompting
Definiowanie zasad etycznych i bezpieczeństwa:
1System: You are a helpful assistant. 2 3Rules: 41. Do not generate harmful content 52. Do not share personal information 63. Do not help with illegal activities 74. Always be honest 8 9User question: {question}
Role Prompting
Definiowanie konkretnego obszaru specjalizacji:
1You are a cybersecurity expert with 20 years of experience. 2You have worked as a CISO in Fortune 500 companies. 3You can explain technical details clearly and understandably. 4 5User's question: {question} 6## Strategie optymalizacji promptów 7 8### 1. Zwiększanie szczegółowości 9 10❌ Złe:
Write a blog post
✅ Dobre:
Target audience: Software developers Topic: Docker container security Length: 1500-2000 words Tone: Technical but accessible Format: Introduction, 5 main sections, conclusion
1 2### 2. Określanie formatu wyjścia 3
Provide your response in this JSON format: { "summary": "string", "key_points": ["string"], "next_steps": ["string"], "confidence_score": number }
1 2### 3. Negatywne promptowanie 3 4Określanie niepożądanych zachowań: 5
Do NOT do the following:
- Give speculative information
- Make claims without citing sources
- Lead the user
- Give excessively long answers
1 2### 4. Użycie delimiterów 3 4Doprecyzowanie sekcji: 5
###CONTEXT### {context information}
###TASK### {work to be done}
###FORMAT### {output format}
1 2## Optymalizacje specyficzne dla modeli 3 4### Dla GPT 5
- Use System message effectively
- Activate JSON mode: response_format={"type": "json_object"}
- Temperature: 0.7-1.0 for creative tasks, 0.1-0.3 for analytical
1 2### Dla Claude 3
- Use XML tags: <context>, <task>, <format>
- Put important information at the end in long context
- Evaluate Thinking tags
1 2### Dla Gemini 3
- Optimize for multimodal prompts
- Up-to-date information with Grounding
- Adjust Safety settings
1 2## Testowanie i iteracja promptów 3 4### Framework testów A/B 5
Prompt A: {version 1} Prompt B: {version 2}
Metrics:
- Accuracy: %
- Consistency: 1-5
- Latency: ms
- Token usage: #
1 2### Wersjonowanie promptów 3
prompt_v1.0: First version prompt_v1.1: Typo corrections prompt_v2.0: CoT added prompt_v2.1: Output format changed
1 2## Zarządzanie promptami w środowisku Enterprise 3 4### Tworzenie biblioteki promptów 5
/prompts /classification - sentiment_analysis.json - intent_detection.json /generation - blog_writer.json - code_reviewer.json /extraction - entity_extraction.json - data_parsing.json
1 2### System szablonów promptów 3 4```python 5class PromptTemplate: 6 def __init__(self, template, variables): 7 self.template = template 8 self.variables = variables 9 10 def render(self, **kwargs): 11 return self.template.format(**kwargs) 12 13# Usage 14sentiment_prompt = PromptTemplate( 15 template="Analyze sentiment: {text}", 16 variables=["text"] 17)
Najczęstsze błędy i rozwiązania
Błąd 1: Zbyt ogólny prompt
Problem: Model nie rozumie, czego oczekujesz
Rozwiązanie: Dodaj szczegółowe instrukcje i przykłady
Błąd 2: Bardzo długi prompt
Problem: Przekroczony limit tokenów, rosną koszty
Rozwiązanie: Usuń zbędne informacje, użyj podsumowania
Błąd 3: Sprzeczne instrukcje
Problem: Model zachowuje się niespójnie
Rozwiązanie: Ustal priorytety i doprecyzuj zasady
Błąd 4: Halucynacje
Problem: Model podaje zmyślone informacje
Rozwiązanie: Grounding, wymaganie cytowania, niższa temperatura
Zakończenie
Inżynieria promptów jest kluczowym czynnikiem sukcesu projektów AI. Dzięki właściwym technikom i systematycznemu podejściu możesz znacząco zwiększyć wydajność modeli.
W Veni AI tworzymy spersonalizowane strategie promptów dla klientów korporacyjnych. Skontaktuj się z nami, aby uzyskać profesjonalne wsparcie.
